Warning: mkdir(): No space left on device in /var/www/tgoop/post.php on line 37

Warning: file_put_contents(aCache/aDaily/post/step_above_average/--): Failed to open stream: No such file or directory in /var/www/tgoop/post.php on line 50
Выше среднего@step_above_average P.152
STEP_ABOVE_AVERAGE Telegram 152
Обогащение контекста

Если вам, как и мне, не безразличны справедливость и процветание человечества, то вы, как и я, порадуетесь за то, что создателям Реинфорсмент Леарнинга ака обучение с подкреплением, дали Нобелевку по физике премию Тьюринга (https://awards.acm.org/about/2024-turing). Тот самый Reinforcement Learning, который развернули в полную мощь парни из Китайского Коммунистического Хэдж Фонда DeepSeek и пошатали им американский фондовый рынок.

Мы живем в удивительное время, что ни говори. А в удивительное время, когда непонятно как жить дальше, иногда полезно заняться обогащением контекста. Мы ж не Иран, можем обогащать сколько влезет.
Что же это такое? Это добавление информации вместе со ссылками на источники прямо в промт ЛЛМке, чтобы она меньше придумывала и больше опиралась на эти самые источники и факты. Ну или чтобы покреативнее была, сами понимаете. Ну такие факты, которые общеизвестны, ну или которые можно загуглить.

Как в том абзаце наверху про премию Тьюринга, можно было бы вставить ссылку (https://web.stanford.edu/class/psych209/Readings/SuttonBartoIPRLBook2ndEd.pdf) на знаменитую книжку, которую написали авторы, а я, к сожалению, читал только в переводах и пересказах.

При всей кажущейся простоте и тривиальности задачи, она не проста и не тривиальна. Просто поискать в гугле совсем не просто, если на хоть каком-то объеме.

Я нашел несколько простых решений, которые подойдут пролетариату, а именно:
1️⃣ Perplexity (perplexity.ai) -- имеет несколько своих моделей и при запросе обращается к своим индексам, реально не ищет. Скорость ответа высокая. Может в ризонинг. Стоит по нынешним меркам недорого. Все про них знают кароч
2️⃣ OpenPerplex (https://openperplex.com/) -- молодой игрок. Ценник конский, но SDK удобный. Судя по всему они в реалтайме собирают запросы с поисковиков. В дискорде всего 113 человек
3️⃣ Tavily (https://tavily.com/) -- ищет по многим источникам. Даже неочевидным, таким как instagram и linkedin. Ценник конский. Но для некоторых проектов может подойти.
4️⃣ Gemini (https://ai.google.dev/gemini-api/docs/grounding?lang=python) -- может тоже искать по гуглу. Ценник конский.
5️⃣ Custom Google Search Engine (https://programmablesearchengine.google.com/about/) -- ну в общем вы можете сделать свой гугл и ходить за информацией туда. Или свой Бинг. Хотя не знаю зачем это вам.
6️⃣ GPT Researcher (https://gptr.dev/) -- то же самое что и Deep Research от Google OpenAI, но дома. Может искать много по чему, в том числе и, например, по Arxiv. За 5 минут и сколько-то там баксов сляпает вам отчет на любой вопрос.

Вам, может быть все это и не надо, а мне надо. А может и вам когда-то понадобится
2



tgoop.com/step_above_average/152
Create:
Last Update:

Обогащение контекста

Если вам, как и мне, не безразличны справедливость и процветание человечества, то вы, как и я, порадуетесь за то, что создателям Реинфорсмент Леарнинга ака обучение с подкреплением, дали Нобелевку по физике премию Тьюринга (https://awards.acm.org/about/2024-turing). Тот самый Reinforcement Learning, который развернули в полную мощь парни из Китайского Коммунистического Хэдж Фонда DeepSeek и пошатали им американский фондовый рынок.

Мы живем в удивительное время, что ни говори. А в удивительное время, когда непонятно как жить дальше, иногда полезно заняться обогащением контекста. Мы ж не Иран, можем обогащать сколько влезет.
Что же это такое? Это добавление информации вместе со ссылками на источники прямо в промт ЛЛМке, чтобы она меньше придумывала и больше опиралась на эти самые источники и факты. Ну или чтобы покреативнее была, сами понимаете. Ну такие факты, которые общеизвестны, ну или которые можно загуглить.

Как в том абзаце наверху про премию Тьюринга, можно было бы вставить ссылку (https://web.stanford.edu/class/psych209/Readings/SuttonBartoIPRLBook2ndEd.pdf) на знаменитую книжку, которую написали авторы, а я, к сожалению, читал только в переводах и пересказах.

При всей кажущейся простоте и тривиальности задачи, она не проста и не тривиальна. Просто поискать в гугле совсем не просто, если на хоть каком-то объеме.

Я нашел несколько простых решений, которые подойдут пролетариату, а именно:
1️⃣ Perplexity (perplexity.ai) -- имеет несколько своих моделей и при запросе обращается к своим индексам, реально не ищет. Скорость ответа высокая. Может в ризонинг. Стоит по нынешним меркам недорого. Все про них знают кароч
2️⃣ OpenPerplex (https://openperplex.com/) -- молодой игрок. Ценник конский, но SDK удобный. Судя по всему они в реалтайме собирают запросы с поисковиков. В дискорде всего 113 человек
3️⃣ Tavily (https://tavily.com/) -- ищет по многим источникам. Даже неочевидным, таким как instagram и linkedin. Ценник конский. Но для некоторых проектов может подойти.
4️⃣ Gemini (https://ai.google.dev/gemini-api/docs/grounding?lang=python) -- может тоже искать по гуглу. Ценник конский.
5️⃣ Custom Google Search Engine (https://programmablesearchengine.google.com/about/) -- ну в общем вы можете сделать свой гугл и ходить за информацией туда. Или свой Бинг. Хотя не знаю зачем это вам.
6️⃣ GPT Researcher (https://gptr.dev/) -- то же самое что и Deep Research от Google OpenAI, но дома. Может искать много по чему, в том числе и, например, по Arxiv. За 5 минут и сколько-то там баксов сляпает вам отчет на любой вопрос.

Вам, может быть все это и не надо, а мне надо. А может и вам когда-то понадобится

BY Выше среднего




Share with your friend now:
tgoop.com/step_above_average/152

View MORE
Open in Telegram


Telegram News

Date: |

Polls End-to-end encryption is an important feature in messaging, as it's the first step in protecting users from surveillance. SUCK Channel Telegram 4How to customize a Telegram channel? Over 33,000 people sent out over 1,000 doxxing messages in the group. Although the administrators tried to delete all of the messages, the posting speed was far too much for them to keep up.
from us


Telegram Выше среднего
FROM American