Пожелания и планы на будущее
Re: Пожелания и планы на будущее
@elpresidente*
Я потестировал интеллект у GPT4o и хочу сказать, что по многим моим критериям GPT4o таки бьёт Claude Opus 3. Причём я имею ввиду обработку обычного текста , а не новые функциональные возможности GPT4o.
А Gemini 1.5 гораздо тупее даже чем Claude Opus 3
OpenAi таки крут неимоверно
Я потестировал интеллект у GPT4o и хочу сказать, что по многим моим критериям GPT4o таки бьёт Claude Opus 3. Причём я имею ввиду обработку обычного текста , а не новые функциональные возможности GPT4o.
А Gemini 1.5 гораздо тупее даже чем Claude Opus 3
OpenAi таки крут неимоверно
-
- Site Admin
- Reactions: 1133
- Сообщения: 3526
- Зарегистрирован: Сб май 14, 2022 5:03 pm
Re: Пожелания и планы на будущее
@kyk Согласен, gpt4o по прежнему лучший и что немаловажно самый недорогой вариант из этих трех. Но остальные не сильно отстают. Gemini 1.5 pro это омни модель, как и gpt4o, ее основной плюс это контекст в 1M.
Начинаю всерьез подумывать чтобы проиндексировать всю базу (без Девочек, Для Взрослых и Мужского Клуба):
- Хранение данных Azure CosmosDB Mongo vCore vector index, free tier (32GB) https://devblogs.microsoft.com/cosmosdb ... free-tier/
- Web API на Azure https://github.com/microsoft/sample-app-aoai-chatGPT, Azure App Service Free tier F1 https://azure.microsoft.com/en-us/prici ... s/#pricing (60 CPU minutes/day) 1GB RAM 1.00 GB ROM
- OpenAPI https://openai.com/api/pricing/
gpt-4o: Input $5.00/1M tokens, Output $15.00/1M tokens
text-embedding-3-small $0.02/1M tokens - это скорее всего будет основная статья расхода при закачке данных, все остальное бесплатно
Сейцас имеем:
Размер базы данных 2.49 ГБ - где-то 60% если убрать Девочек, Для Взрослых и Мужской Клуб, те ~1.5ГБ текста
Размер всех вложений 15.9 ГБ - это скорее всего не надо индексировать
Те надо оценить расходы (и время) на векторизацию примерно 1.5ГБ русского текста исходя из $0.02/1M tokens (text-embedding-3-small).
Вот что говорит сам gpt4o:
Если так то надо будет сделать плагин под это дело.
Начинаю всерьез подумывать чтобы проиндексировать всю базу (без Девочек, Для Взрослых и Мужского Клуба):
- Хранение данных Azure CosmosDB Mongo vCore vector index, free tier (32GB) https://devblogs.microsoft.com/cosmosdb ... free-tier/
- Web API на Azure https://github.com/microsoft/sample-app-aoai-chatGPT, Azure App Service Free tier F1 https://azure.microsoft.com/en-us/prici ... s/#pricing (60 CPU minutes/day) 1GB RAM 1.00 GB ROM
- OpenAPI https://openai.com/api/pricing/
gpt-4o: Input $5.00/1M tokens, Output $15.00/1M tokens
text-embedding-3-small $0.02/1M tokens - это скорее всего будет основная статья расхода при закачке данных, все остальное бесплатно
Сейцас имеем:
Размер базы данных 2.49 ГБ - где-то 60% если убрать Девочек, Для Взрослых и Мужской Клуб, те ~1.5ГБ текста
Размер всех вложений 15.9 ГБ - это скорее всего не надо индексировать
Те надо оценить расходы (и время) на векторизацию примерно 1.5ГБ русского текста исходя из $0.02/1M tokens (text-embedding-3-small).
Вот что говорит сам gpt4o:
Получается ~$5?1.5GB of Russian text is estimated to contain approximately 222 million tokens when tokenized using a model like "text-embedding-3-small."
Note that this is a rough estimate. The exact number can vary based on the actual text content, including word frequency, punctuation, and specific language constructs.
Если так то надо будет сделать плагин под это дело.
Re: Пожелания и планы на будущее
@elpresidente*
Но у всех моделей, включая gpt-4o, по-прежнему остаётся limit=4096 на максимальный размер of output per one GPT call/turn. Я понимаю, что для получения длинного выхода создаётся tread with multiple GPT calls/turns.
Для чата это вполне годится.
Но это не позволяет, например, с помошью одного лишь prompt-а сгенирировать 20-страничный качественный документ с детальной инструкцией в одном prompt-е.
Это возможно сделать, но фактически для генерации каждой следущей порции 4096 будет нужен новый prompt и новый GPT call.
Т.е. получается что детальную инструкцию генерации большого документа надо разбивать на маленькие кусочки-маленькие инструкции. При этом GPT model по-прежнему остаётся stateless , в том смысле, что сама модель не знает что она задействована in tread with multiple calls. Мы-то знаем, а сама модель не знает.
да, цена неплохая.
Но у всех моделей, включая gpt-4o, по-прежнему остаётся limit=4096 на максимальный размер of output per one GPT call/turn. Я понимаю, что для получения длинного выхода создаётся tread with multiple GPT calls/turns.
Для чата это вполне годится.
Но это не позволяет, например, с помошью одного лишь prompt-а сгенирировать 20-страничный качественный документ с детальной инструкцией в одном prompt-е.
Это возможно сделать, но фактически для генерации каждой следущей порции 4096 будет нужен новый prompt и новый GPT call.
Т.е. получается что детальную инструкцию генерации большого документа надо разбивать на маленькие кусочки-маленькие инструкции. При этом GPT model по-прежнему остаётся stateless , в том смысле, что сама модель не знает что она задействована in tread with multiple calls. Мы-то знаем, а сама модель не знает.
Последний раз редактировалось kyk Сб май 25, 2024 10:38 am, всего редактировалось 3 раза.
Re: Пожелания и планы на будущее
Есть стартапы что такое клея уже… ссылок нет ибо это проскакивало в приватной фб группеkyk писал(а): ↑Сб май 25, 2024 10:29 am @elpresidente*да, цена неплохая.
Но у всех моделей, включая gpt-4o, по-прежнему остаётся limit=4096 на максимальный размер of output per one GPT call/turn. Я понимаю, что для получения длинного выхода создаётся tread with multiple GPT calls/turns.
Для чата это вполне годится.
Но это не позволяет, например, с помошью одного лишь prompt-а сгенирировать 20-страничный качественный документ с детальной инструкцией в одном prompt-е.
Это возможно сделать, но фактически для генерации каждой следущей порции 4096 будет нужен новый prompt и новый GPT call.
Т.е. получается что детальную инструкцию генерации большого документа надо разбивать на маленькие кусочки-маленькие инструкции
К маю в распоряжении команды было 38,5 URL-адресов, ведущих на различные видео
-
- Site Admin
- Reactions: 1133
- Сообщения: 3526
- Зарегистрирован: Сб май 14, 2022 5:03 pm
Re: Пожелания и планы на будущее
Сейцас работаю над новым ботом для форума который будет использовать треды и сможет обрабатывать вложения, все это на основе омни модели gpt4o (позжне можно будет добавить Gemini).kyk писал(а): ↑Сб май 25, 2024 10:29 am @elpresidente*да, цена неплохая.
Но у всех моделей, включая gpt-4o, по-прежнему остаётся limit=4096 на максимальный размер of output per one GPT call/turn. Я понимаю, что для получения длинного выхода создаётся tread with multiple GPT calls/turns.
Для чата это вполне годится.
Но это не позволяет, например, с помошью одного лишь prompt-а сгенирировать 20-страничный качественный документ с детальной инструкцией в одном prompt-е.
Это будет во первых дешевле(оказалось что это не так, стоимость та-же) а во вторых позволит обрабатывать медиа файлы в дополнение к тексту.
Все верно, как вы написали 4К это сейчас максимальный размер одного ответа, для этого сайта этого более чем достаточно.
Можно использовать итерации чтобы получить более "длинный" ответ.
Re: Пожелания и планы на будущее
@elpresidente*
При этом одну длинную детальную инструкцию генерации большого 30-страничного документа надо именно что транслировать, преобразовывать во много маленьких инструкций на генерацию кусочков по 4096, причём эти маленькие инструкции будут все разные (если документ сложный). В этом отличие от обычного чатаelpresidente* писал(а): ↑Сб май 25, 2024 10:41 amМожно использовать итерации чтобы получить более "длинный" ответ.
Re: Пожелания и планы на будущее
А можно вот это пофиксить?
- Вложения
-
- Screenshot 2024-06-24 at 2.07.47 PM.png (182.4 КБ) 940 просмотров
-
- Site Admin
- Reactions: 1133
- Сообщения: 3526
- Зарегистрирован: Сб май 14, 2022 5:03 pm
Re: Пожелания и планы на будущее
Маловероятно. В любом случае надо обращяться к производителю https://support.google.com
Re: Пожелания и планы на будущее
Доброго времени Президент,elpresidente* писал(а): ↑Сб май 25, 2024 10:01 am
Начинаю всерьез подумывать чтобы проиндексировать всю базу (без Девочек, Для Взрослых и Мужского Клуба):
- Хранение данных Azure CosmosDB Mongo vCore vector index, free tier (32GB) https://devblogs.microsoft.com/cosmosdb/run-
Сейцас имеем:
Размер базы данных 2.49 ГБ - где-то 60% если убрать Девочек, Для Взрослых и Мужской Клуб, те ~1.5ГБ текста
Размер всех вложений 15.9 ГБ - это скорее всего не надо индексировать
Те надо оценить расходы (и время) на векторизацию примерно 1.5ГБ русского текста исходя из $0.02/1M tokens (text-embedding-3-small).
Вот что говорит сам gpt4o:Получается ~$5?1.5GB of Russian text is estimated to contain approximately 222 million tokens when tokenized using a model like "text-embedding-3-small."
Note that this is a rough estimate. The exact number can vary based on the actual text content, including word frequency, punctuation, and specific language constructs.
Если так то надо будет сделать плагин под это дело.
что-то получается с индексацией базы для интеллектуального поиска форума?
-
- Site Admin
- Reactions: 1133
- Сообщения: 3526
- Зарегистрирован: Сб май 14, 2022 5:03 pm
- Uzito
- ⭐ Top 5 most interesting users
- Reactions: 1448
- Сообщения: 6172
- Зарегистрирован: Пт июн 24, 2022 1:35 pm
Re: Пожелания и планы на будущее
@elpresidente*
https://decrypt.co/242822/flux-ai-image ... 3-auraflow
Flux новый это полный атас.
(Рецепты внутри)
https://decrypt.co/242822/flux-ai-image ... 3-auraflow
Flux новый это полный атас.
(Рецепты внутри)
- Вложения
-
- FluxDev_00041_.png (1.25 МБ) 734 просмотра
-
- FluxDev_00027_.png (1.43 МБ) 734 просмотра
-
- FluxDev_00026_.png (1.43 МБ) 734 просмотра
-
- FluxDev_00022_.png (1.39 МБ) 734 просмотра
-
- FluxDev_00021_.png (1.18 МБ) 734 просмотра
-
- ComfyUI_00001_.png (1.27 МБ) 734 просмотра
-
- timeY-m-d_00204_.png (2.12 МБ) 734 просмотра
-
- Site Admin
- Reactions: 1133
- Сообщения: 3526
- Зарегистрирован: Сб май 14, 2022 5:03 pm
Re: Пожелания и планы на будущее
Спасибо за линк, похоже у Midjourney действительно появился конкурент.Uzito писал(а): ↑Пт авг 02, 2024 6:12 pm @elpresidente*
https://decrypt.co/242822/flux-ai-image ... 3-auraflow
Flux новый это полный атас.
(Рецепты внутри)
В статье есть довольно много неточностей, в частности почему-то стоит линк на левый сайт где утверждается:
Вот оригинальная ссылка https://docs.midjourney.com/docs/plans, $10/m и 200 минут fast gpu time.Midjourney’s Basic plan costs $96/year and lets users generate around 200 images per month, which is something like 25 images per dollar.
Генерация одного изображения занимает от 10 до 20 секунд максимум, те в среднем с самым простым планом вы можете генерировать от 1К до ~600 (нижняя граница) изображений а никак не 200.
Ну и цена на https://replicate.com/pricing совсем не гуманная: black-forest-labs/flux-pro 18.182 images / $1. Это примерно в три раза дороже Midjourney.
Плюс в том что у них есть API, сейцас мне приходится платить $10/m за API https://useapi.net, хотя даже с учетом этого все равно дорого.
Думаю что основная борьба развернется в генерировании видео.
-
- Site Admin
- Reactions: 1133
- Сообщения: 3526
- Зарегистрирован: Сб май 14, 2022 5:03 pm
Re: Пожелания и планы на будущее
Оказывается useapi.net теперь поддерживает RunwayML.
Не знаю как тут дать ссылку на их пост в Телеграме:
Сделано из фото:
Очень впечатляет если это реально так!
Не знаю как тут дать ссылку на их пост в Телеграме:
Сделано из фото:
Очень впечатляет если это реально так!
Re: Пожелания и планы на будущее
@elpresidente* ,
Я перенёс мои посты сюда, здесь более в тему
На входе context у Gemini огромный, можно 500 страниц загрузить, но вот выход-то при этом совсем небольшой.
Для многоходового чата with multiple iterations и long history важен размер входного контекста.
А вот если надо сделать большой выходной документ, то требуется сделать several iterations, т.е. several GPT model calls.
Я уже не раз указывал что при каждом таком GPT model call, сама -то модель "не знает" что она участвует в герации кусочков одного большого выходной документа. Т.е. программер как бы должен сам чесать репу как это хорошо сделать.
Если весь большой ответ можно разбить на независимые куски и каждый такой выходной кусок умещается в
limit на размер ответа одного GPT model call, то тогда это достаточно легко.
А вот в противном случае, если нужен большой и когерентный выход на 50-100 страниц, то задача вовсе не тривиальная, в том числе и потому что заранее неизвестно как будет себя вести GPT model в такой ситуации.
Каждый следующий GPT model call читает ранее сгенерированные и добавленные в контекст куски как бы "в первый раз" .
А на сколько ожидаемо и предсказуемо модель будет работать в таком режиме - неизвестно.
В зависимости от сложности большого выходного документа, возможно потребуется для каждого следующего GPT model call немного менять инструкции (prompt) для GPT.
Т.е. задача разбивается на куски (которые влезают в output limit) и для каждого такого куска надо вручную писать отдельную инструкцию (prompt) для GPT.
Допустим, задача написать книжку на 200 стр. на заданную тему. Если бы не было ограничения на output limit, то можно было написать один качественый prompt и книжка готова.
При ограничении на output limit, надо дробить работу на мелкие части, типа маленькие главы, и для каждой главы создавать модифицированный prompt вручную .
Т.е. для каждого такого prompt-а будет недостаточно лишь одной и той же инструкции "уже сгенерированные куски добавлять в контекст и объяснять что выход должен быть продолжением вот этого".
А если книжка будет на 1000 страниц при лимите модели output size 5 страниц. Это получается 1000/5 = 200 кусков и для каждого куска модифицированный prompt нужен.
Можно ли автоматизировать генерацию этих 200 prompt-ов? Чтобы не писать каждый такой prompt вручную.
Иными словами....
Если имеется один качественый глобальный prompt- для написания всей книги целиком (если бы не было ограничения на output limit), то как на основании этого одного глобального prompt-а сгенерировать все 200 локальных prompt-ов?
Сумел я мысль донести? Не уронил по дороге?
Я перенёс мои посты сюда, здесь более в тему
по состоянию на месяц назад, limit на размер ответа (for one GPT model call) у Gemini почти такой же как и у GPT-4.elpresidente* писал(а): ↑Чт авг 15, 2024 10:39 am В итоге имеем более качественную на небольших обьемах модель GPT-4o и Gemini которая не имеет проблем с размером контекста и выдает полный текст но явно худшего качества.
На входе context у Gemini огромный, можно 500 страниц загрузить, но вот выход-то при этом совсем небольшой.
Для многоходового чата with multiple iterations и long history важен размер входного контекста.
А вот если надо сделать большой выходной документ, то требуется сделать several iterations, т.е. several GPT model calls.
Я уже не раз указывал что при каждом таком GPT model call, сама -то модель "не знает" что она участвует в герации кусочков одного большого выходной документа. Т.е. программер как бы должен сам чесать репу как это хорошо сделать.
Если весь большой ответ можно разбить на независимые куски и каждый такой выходной кусок умещается в
limit на размер ответа одного GPT model call, то тогда это достаточно легко.
А вот в противном случае, если нужен большой и когерентный выход на 50-100 страниц, то задача вовсе не тривиальная, в том числе и потому что заранее неизвестно как будет себя вести GPT model в такой ситуации.
естествеенно что так и надо делать. Но это лишь небходимое, но не достаточное условие.
Каждый следующий GPT model call читает ранее сгенерированные и добавленные в контекст куски как бы "в первый раз" .
А на сколько ожидаемо и предсказуемо модель будет работать в таком режиме - неизвестно.
В зависимости от сложности большого выходного документа, возможно потребуется для каждого следующего GPT model call немного менять инструкции (prompt) для GPT.
Т.е. задача разбивается на куски (которые влезают в output limit) и для каждого такого куска надо вручную писать отдельную инструкцию (prompt) для GPT.
Допустим, задача написать книжку на 200 стр. на заданную тему. Если бы не было ограничения на output limit, то можно было написать один качественый prompt и книжка готова.
При ограничении на output limit, надо дробить работу на мелкие части, типа маленькие главы, и для каждой главы создавать модифицированный prompt вручную .
Т.е. для каждого такого prompt-а будет недостаточно лишь одной и той же инструкции "уже сгенерированные куски добавлять в контекст и объяснять что выход должен быть продолжением вот этого".
А если книжка будет на 1000 страниц при лимите модели output size 5 страниц. Это получается 1000/5 = 200 кусков и для каждого куска модифицированный prompt нужен.
Можно ли автоматизировать генерацию этих 200 prompt-ов? Чтобы не писать каждый такой prompt вручную.
Иными словами....
Если имеется один качественый глобальный prompt- для написания всей книги целиком (если бы не было ограничения на output limit), то как на основании этого одного глобального prompt-а сгенерировать все 200 локальных prompt-ов?
Сумел я мысль донести? Не уронил по дороге?