Ничего не меняется. Оба варианта выглядят одинаковоelpresidente* писал(а): ↑Чт мар 09, 2023 1:20 pmhttps://www.igeeksblog.com/how-to-go-ba ... hone-ipad/ ?
А на сайте форума кнопки нет?
Ничего не меняется. Оба варианта выглядят одинаковоelpresidente* писал(а): ↑Чт мар 09, 2023 1:20 pmhttps://www.igeeksblog.com/how-to-go-ba ... hone-ipad/ ?
Нет, это видимо ваш браузер "запомнил" этот сайт с такими настройками.
идея не нова. Таких фейковых сайтов и так куча и без ЧАТGPT
а где там записываться? Дай, пожалуйста, ссылкуelpresidente* писал(а): ↑Ср мар 15, 2023 10:32 am Анонс GPT-4, выглядит очень интересно.
Записался в очередь на доступ к beta API.
https://openai.com/waitlist/gpt-4-apikyk писал(а): ↑Пт мар 17, 2023 12:46 amа где там записываться? Дай, пожалуйста, ссылкуelpresidente* писал(а): ↑Ср мар 15, 2023 10:32 am Анонс GPT-4, выглядит очень интересно.
Записался в очередь на доступ к beta API.
Модели Stable Diffusion являются Open Source и уже есть компании которые дают SaaS доступ без каких-либо ограничений/модерации к опубликованным моделям.
Или делает слишком много.
Качество результата зависит от того сколько качественных картинок было использовано для обучения системы, качества классификации этих картинок, детального промпта, количества итераций. Для генерации чего-то достойного же недостаточно просто одного промпта. Мы тут на форуме видим что большинство результатов полная фигня. По нормальному нужно давать системе задачу, смотреть результат, вносить добавления и поправки в промп и уже когда начинает что-то нужное появляться, тогда уж и генерить финальную версию с максимальным разрешением и глубиной обработки.
Посмотрю завтра статистику и напишу подробно сколько стоит то что есть на этом форуме.
MidJourney по слухам использует ту-же самую Stable Diffusion но с другим training dataset.Uzito писал(а): ↑Сб мар 25, 2023 4:05 amКачество результата зависит от того сколько качественных картинок было использовано для обучения системы, качества классификации этих картинок, детального промпта, количества итераций. Для генерации чего-то достойного же недостаточно просто одного промпта. Мы тут на форуме видим что большинство результатов полная фигня. По нормальному нужно давать системе задачу, смотреть результат, вносить добавления и поправки в промп и уже когда начинает что-то нужное появляться, тогда уж и генерить финальную версию с максимальным разрешением и глубиной обработки.
За 60 бачков в месяц MidJourney будет максимум доступного.
Так оно и развивается - форки StableDiffusion, дополнения которые позволяют рисовать в картинке, по промпту нарисованому карандашом, задавать позы для человеческих фигур и т.д.elpresidente* писал(а): ↑Сб мар 25, 2023 3:38 pm MidJourney по слухам использует ту-же самую Stable Diffusion но с другим training dataset.
Stable Diffusion тренировали на данных где "взрослый" контент составлял около 2%, соответственно результат будет вполне ожидаемый какие-бы prompt вы не задавали.
Погуглите Unstable Diffusion, там как раз обратная картина но у них нет публичной версии.
Думаю что это направление AI будет активно развиватся и мы сможем тут наблюдать результаты.