Пожелания и планы на будущее

Эксперименты с Midjourney, ChatGPT, Gemini, Claude, DALL-E, Stable Diffusion, Pika, PixVerse и InsightFaceSwap
kyk
Reactions: 544
Сообщения: 6980
Зарегистрирован: Ср июн 15, 2022 6:54 pm

Re: Пожелания и планы на будущее

Сообщение kyk »

@elpresidente*
Я потестировал интеллект у GPT4o и хочу сказать, что по многим моим критериям GPT4o таки бьёт Claude Opus 3. Причём я имею ввиду обработку обычного текста , а не новые функциональные возможности GPT4o.

А Gemini 1.5 гораздо тупее даже чем Claude Opus 3

OpenAi таки крут неимоверно :good:
1 Изображение
elpresidente*
Site Admin
Reactions: 1133
Сообщения: 3526
Зарегистрирован: Сб май 14, 2022 5:03 pm

Re: Пожелания и планы на будущее

Сообщение elpresidente* »

@kyk Согласен, gpt4o по прежнему лучший и что немаловажно самый недорогой вариант из этих трех. Но остальные не сильно отстают. Gemini 1.5 pro это омни модель, как и gpt4o, ее основной плюс это контекст в 1M.

Начинаю всерьез подумывать чтобы проиндексировать всю базу (без Девочек, Для Взрослых и Мужского Клуба):
- Хранение данных Azure CosmosDB Mongo vCore vector index, free tier (32GB) https://devblogs.microsoft.com/cosmosdb ... free-tier/
- Web API на Azure https://github.com/microsoft/sample-app-aoai-chatGPT, Azure App Service Free tier F1 https://azure.microsoft.com/en-us/prici ... s/#pricing (60 CPU minutes/day) 1GB RAM 1.00 GB ROM
- OpenAPI https://openai.com/api/pricing/
gpt-4o: Input $5.00/1M tokens, Output $15.00/1M tokens
text-embedding-3-small $0.02/1M tokens - это скорее всего будет основная статья расхода при закачке данных, все остальное бесплатно

Сейцас имеем:
Размер базы данных 2.49 ГБ - где-то 60% если убрать Девочек, Для Взрослых и Мужской Клуб, те ~1.5ГБ текста
Размер всех вложений 15.9 ГБ - это скорее всего не надо индексировать

Те надо оценить расходы (и время) на векторизацию примерно 1.5ГБ русского текста исходя из $0.02/1M tokens (text-embedding-3-small).

Вот что говорит сам gpt4o:
1.5GB of Russian text is estimated to contain approximately 222 million tokens when tokenized using a model like "text-embedding-3-small."
Note that this is a rough estimate. The exact number can vary based on the actual text content, including word frequency, punctuation, and specific language constructs.
Получается ~$5?
Если так то надо будет сделать плагин под это дело.
1 Изображение
kyk
Reactions: 544
Сообщения: 6980
Зарегистрирован: Ср июн 15, 2022 6:54 pm

Re: Пожелания и планы на будущее

Сообщение kyk »

@elpresidente*
elpresidente* писал(а): Сб май 25, 2024 10:01 am gpt-4o: .... Output $15.00/1M tokens
да, цена неплохая.

Но у всех моделей, включая gpt-4o, по-прежнему остаётся limit=4096 на максимальный размер of output per one GPT call/turn. Я понимаю, что для получения длинного выхода создаётся tread with multiple GPT calls/turns.
Для чата это вполне годится.

Но это не позволяет, например, с помошью одного лишь prompt-а сгенирировать 20-страничный качественный документ с детальной инструкцией в одном prompt-е.

Это возможно сделать, но фактически для генерации каждой следущей порции 4096 будет нужен новый prompt и новый GPT call.
Т.е. получается что детальную инструкцию генерации большого документа надо разбивать на маленькие кусочки-маленькие инструкции. При этом GPT model по-прежнему остаётся stateless , в том смысле, что сама модель не знает что она задействована in tread with multiple calls. Мы-то знаем, а сама модель не знает.
Последний раз редактировалось kyk Сб май 25, 2024 10:38 am, всего редактировалось 3 раза.
alex_127
Reactions: 1328
Сообщения: 6196
Зарегистрирован: Ср июн 15, 2022 9:44 am

Re: Пожелания и планы на будущее

Сообщение alex_127 »

kyk писал(а): Сб май 25, 2024 10:29 am @elpresidente*
elpresidente* писал(а): Сб май 25, 2024 10:01 am gpt-4o: .... Output $15.00/1M tokens
да, цена неплохая.

Но у всех моделей, включая gpt-4o, по-прежнему остаётся limit=4096 на максимальный размер of output per one GPT call/turn. Я понимаю, что для получения длинного выхода создаётся tread with multiple GPT calls/turns.
Для чата это вполне годится.

Но это не позволяет, например, с помошью одного лишь prompt-а сгенирировать 20-страничный качественный документ с детальной инструкцией в одном prompt-е.

Это возможно сделать, но фактически для генерации каждой следущей порции 4096 будет нужен новый prompt и новый GPT call.
Т.е. получается что детальную инструкцию генерации большого документа надо разбивать на маленькие кусочки-маленькие инструкции
Есть стартапы что такое клея уже… ссылок нет ибо это проскакивало в приватной фб группе
К маю в распоряжении команды было 38,5 URL-адресов, ведущих на различные видео
kyk
Reactions: 544
Сообщения: 6980
Зарегистрирован: Ср июн 15, 2022 6:54 pm

Re: Пожелания и планы на будущее

Сообщение kyk »

alex_127 писал(а): Сб май 25, 2024 10:32 amклея
какого клея?
elpresidente*
Site Admin
Reactions: 1133
Сообщения: 3526
Зарегистрирован: Сб май 14, 2022 5:03 pm

Re: Пожелания и планы на будущее

Сообщение elpresidente* »

kyk писал(а): Сб май 25, 2024 10:29 am @elpresidente*
elpresidente* писал(а): Сб май 25, 2024 10:01 am gpt-4o: .... Output $15.00/1M tokens
да, цена неплохая.

Но у всех моделей, включая gpt-4o, по-прежнему остаётся limit=4096 на максимальный размер of output per one GPT call/turn. Я понимаю, что для получения длинного выхода создаётся tread with multiple GPT calls/turns.
Для чата это вполне годится.

Но это не позволяет, например, с помошью одного лишь prompt-а сгенирировать 20-страничный качественный документ с детальной инструкцией в одном prompt-е.
Сейцас работаю над новым ботом для форума который будет использовать треды и сможет обрабатывать вложения, все это на основе омни модели gpt4o (позжне можно будет добавить Gemini).
Это будет во первых дешевле(оказалось что это не так, стоимость та-же) а во вторых позволит обрабатывать медиа файлы в дополнение к тексту.
kyk писал(а): Сб май 25, 2024 10:29 amЭто возможно сделать, но фактически для генерации каждой следущей порции 4096 будет нужен новый prompt и новый GPT call.
Т.е. получается что детальную инструкцию генерации большого документа надо разбивать на маленькие кусочки-маленькие инструкции
Все верно, как вы написали 4К это сейчас максимальный размер одного ответа, для этого сайта этого более чем достаточно.
Можно использовать итерации чтобы получить более "длинный" ответ.
kyk
Reactions: 544
Сообщения: 6980
Зарегистрирован: Ср июн 15, 2022 6:54 pm

Re: Пожелания и планы на будущее

Сообщение kyk »

@elpresidente*
elpresidente* писал(а): Сб май 25, 2024 10:41 amМожно использовать итерации чтобы получить более "длинный" ответ.
При этом одну длинную детальную инструкцию генерации большого 30-страничного документа надо именно что транслировать, преобразовывать во много маленьких инструкций на генерацию кусочков по 4096, причём эти маленькие инструкции будут все разные (если документ сложный). В этом отличие от обычного чата
Аватара пользователя
Килькин
Reactions: 530
Сообщения: 4758
Зарегистрирован: Сб июн 18, 2022 10:21 am

Re: Пожелания и планы на будущее

Сообщение Килькин »

А можно вот это пофиксить?
Вложения
Screenshot 2024-06-24 at 2.07.47 PM.png
Screenshot 2024-06-24 at 2.07.47 PM.png (182.4 КБ) 942 просмотра
elpresidente*
Site Admin
Reactions: 1133
Сообщения: 3526
Зарегистрирован: Сб май 14, 2022 5:03 pm

Re: Пожелания и планы на будущее

Сообщение elpresidente* »

Килькин писал(а): Пн июн 24, 2024 11:08 am А можно вот это пофиксить?
Маловероятно. В любом случае надо обращяться к производителю https://support.google.com
Аватара пользователя
iglesias
Reactions: 15
Сообщения: 29
Зарегистрирован: Ср май 08, 2024 7:21 am

Re: Пожелания и планы на будущее

Сообщение iglesias »

elpresidente* писал(а): Сб май 25, 2024 10:01 am
Начинаю всерьез подумывать чтобы проиндексировать всю базу (без Девочек, Для Взрослых и Мужского Клуба):
- Хранение данных Azure CosmosDB Mongo vCore vector index, free tier (32GB) https://devblogs.microsoft.com/cosmosdb/run-
Сейцас имеем:
Размер базы данных 2.49 ГБ - где-то 60% если убрать Девочек, Для Взрослых и Мужской Клуб, те ~1.5ГБ текста
Размер всех вложений 15.9 ГБ - это скорее всего не надо индексировать

Те надо оценить расходы (и время) на векторизацию примерно 1.5ГБ русского текста исходя из $0.02/1M tokens (text-embedding-3-small).

Вот что говорит сам gpt4o:
1.5GB of Russian text is estimated to contain approximately 222 million tokens when tokenized using a model like "text-embedding-3-small."
Note that this is a rough estimate. The exact number can vary based on the actual text content, including word frequency, punctuation, and specific language constructs.
Получается ~$5?
Если так то надо будет сделать плагин под это дело.
Доброго времени Президент,
что-то получается с индексацией базы для интеллектуального поиска форума?
elpresidente*
Site Admin
Reactions: 1133
Сообщения: 3526
Зарегистрирован: Сб май 14, 2022 5:03 pm

Re: Пожелания и планы на будущее

Сообщение elpresidente* »

Думаю заняться этим ближе к концу года, на лето пока другие планы.
Аватара пользователя
Uzito
⭐ Top 5 most interesting users
Reactions: 1448
Сообщения: 6172
Зарегистрирован: Пт июн 24, 2022 1:35 pm

Re: Пожелания и планы на будущее

Сообщение Uzito »

@elpresidente*
https://decrypt.co/242822/flux-ai-image ... 3-auraflow

Flux новый это полный атас.

(Рецепты внутри)
Вложения
FluxDev_00041_.png
FluxDev_00041_.png (1.25 МБ) 736 просмотров
FluxDev_00027_.png
FluxDev_00027_.png (1.43 МБ) 736 просмотров
FluxDev_00026_.png
FluxDev_00026_.png (1.43 МБ) 736 просмотров
FluxDev_00022_.png
FluxDev_00022_.png (1.39 МБ) 736 просмотров
FluxDev_00021_.png
FluxDev_00021_.png (1.18 МБ) 736 просмотров
ComfyUI_00001_.png
ComfyUI_00001_.png (1.27 МБ) 736 просмотров
timeY-m-d_00204_.png
timeY-m-d_00204_.png (2.12 МБ) 736 просмотров
1 Изображение
elpresidente*
Site Admin
Reactions: 1133
Сообщения: 3526
Зарегистрирован: Сб май 14, 2022 5:03 pm

Re: Пожелания и планы на будущее

Сообщение elpresidente* »

Uzito писал(а): Пт авг 02, 2024 6:12 pm @elpresidente*
https://decrypt.co/242822/flux-ai-image ... 3-auraflow

Flux новый это полный атас.

(Рецепты внутри)
Спасибо за линк, похоже у Midjourney действительно появился конкурент.
В статье есть довольно много неточностей, в частности почему-то стоит линк на левый сайт где утверждается:
Midjourney’s Basic plan costs $96/year and lets users generate around 200 images per month, which is something like 25 images per dollar.
Вот оригинальная ссылка https://docs.midjourney.com/docs/plans, $10/m и 200 минут fast gpu time.
Генерация одного изображения занимает от 10 до 20 секунд максимум, те в среднем с самым простым планом вы можете генерировать от 1К до ~600 (нижняя граница) изображений а никак не 200.
Ну и цена на https://replicate.com/pricing совсем не гуманная: black-forest-labs/flux-pro 18.182 images / $1. Это примерно в три раза дороже Midjourney.
Плюс в том что у них есть API, сейцас мне приходится платить $10/m за API https://useapi.net, хотя даже с учетом этого все равно дорого.
Думаю что основная борьба развернется в генерировании видео.
elpresidente*
Site Admin
Reactions: 1133
Сообщения: 3526
Зарегистрирован: Сб май 14, 2022 5:03 pm

Re: Пожелания и планы на будущее

Сообщение elpresidente* »

Оказывается useapi.net теперь поддерживает RunwayML.

Не знаю как тут дать ссылку на их пост в Телеграме:


Сделано из фото:


Очень впечатляет если это реально так!
kyk
Reactions: 544
Сообщения: 6980
Зарегистрирован: Ср июн 15, 2022 6:54 pm

Re: Пожелания и планы на будущее

Сообщение kyk »

@elpresidente* ,
Я перенёс мои посты сюда, здесь более в тему

elpresidente* писал(а): Чт авг 15, 2024 10:39 am В итоге имеем более качественную на небольших обьемах модель GPT-4o и Gemini которая не имеет проблем с размером контекста и выдает полный текст но явно худшего качества.
по состоянию на месяц назад, limit на размер ответа (for one GPT model call) у Gemini почти такой же как и у GPT-4.

На входе context у Gemini огромный, можно 500 страниц загрузить, но вот выход-то при этом совсем небольшой.

Для многоходового чата with multiple iterations и long history важен размер входного контекста.

А вот если надо сделать большой выходной документ, то требуется сделать several iterations, т.е. several GPT model calls.

Я уже не раз указывал что при каждом таком GPT model call, сама -то модель "не знает" что она участвует в герации кусочков одного большого выходной документа. Т.е. программер как бы должен сам чесать репу как это хорошо сделать.

Если весь большой ответ можно разбить на независимые куски и каждый такой выходной кусок умещается в
limit на размер ответа одного GPT model call, то тогда это достаточно легко.

А вот в противном случае, если нужен большой и когерентный выход на 50-100 страниц, то задача вовсе не тривиальная, в том числе и потому что заранее неизвестно как будет себя вести GPT model в такой ситуации.
alex_127 писал(а): Пт авг 16, 2024 8:18 am Че-то не понял, что мешает уже сгенерированные куски добавлять в контекст и объяснять что выход должен быть продолжением вот этого?
естествеенно что так и надо делать. Но это лишь небходимое, но не достаточное условие.

Каждый следующий GPT model call читает ранее сгенерированные и добавленные в контекст куски как бы "в первый раз" .

А на сколько ожидаемо и предсказуемо модель будет работать в таком режиме - неизвестно.

В зависимости от сложности большого выходного документа, возможно потребуется для каждого следующего GPT model call немного менять инструкции (prompt) для GPT.

Т.е. задача разбивается на куски (которые влезают в output limit) и для каждого такого куска надо вручную писать отдельную инструкцию (prompt) для GPT.

Допустим, задача написать книжку на 200 стр. на заданную тему. Если бы не было ограничения на output limit, то можно было написать один качественый prompt и книжка готова.

При ограничении на output limit, надо дробить работу на мелкие части, типа маленькие главы, и для каждой главы создавать модифицированный prompt вручную .
Т.е. для каждого такого prompt-а будет недостаточно лишь одной и той же инструкции "уже сгенерированные куски добавлять в контекст и объяснять что выход должен быть продолжением вот этого".

А если книжка будет на 1000 страниц при лимите модели output size 5 страниц. Это получается 1000/5 = 200 кусков и для каждого куска модифицированный prompt нужен.

Можно ли автоматизировать генерацию этих 200 prompt-ов? Чтобы не писать каждый такой prompt вручную.

Иными словами....
Если имеется один качественый глобальный prompt- для написания всей книги целиком (если бы не было ограничения на output limit), то как на основании этого одного глобального prompt-а сгенерировать все 200 локальных prompt-ов?

Сумел я мысль донести? Не уронил по дороге?
Ответить