PROMPTLAB_MOZLAB Telegram 90
Самообучение нейросети: самый простой подход

Очень интересную возможность самообучения нейросети сегодня реализовал с Claude.

Предыстория

Я анализировал довольно сложный 90-страничный документ — результаты исследования климата в команде. Искал в нем полезные инсайты. В промпте, в частности, были высокие требования к детализации ответа (подробный ПРОМПТ в первом комментарии). Я недавно писал о большом преимуществе ответов с высокой детализацией компонентов для оценки качества и релевантности ответа и стараюсь часто использовать такие элементы в промпте.

Я уже знаю, что, в отличие от ChatGPT-4, Claude быстро «утомляется», и если у него просить сразу много выводов, их конкретика и детализация линейно снижается от первого к, например, двадцатому. Поэтому некоторое время назад я придумал промпт-стратегию «сначала попроси длинный список (15-25 элементов), а потом запрашивай нужную детализацию последовательно для каждой следующей пятерки ответов». Стратегия работает стабильно. Сработала и в этот раз. Но я сделал и кое-что новое…

Что я сделал по-другому в этот раз?

В этот раз в каждый следующий промпт (для выводов 6-10, 11-15 и тп) я добавлял фразу: «Очень хорошо, ты сделал гораздо лучше и конкретнее. Продолжай работу для выводов с 6 по 10, но перед этим проанализируй свой предыдущий ответ и постарайся улучшить текущий, еще увеличив уровень конкретики в разделе рекомендации».

Что получилось?

Я увидел плавное повышение уровня конкретики рекомендаций в каждом ответе. Я раньше не сталкивался с таким (но я и не просил каждый раз улучшать, просто просил «сохрани такой же уровень конкретики, как в выводах 1-5»). Мне очень понравился этот эффект…

… и я совсем обнаглел и распоясался…

… и решил пойти по второму кругу, отталкиваясь от уже-почти совершенного ответа по последней пятерке выводов. Я попросил улучшить первые выводы, (которые нейросеть и так сформулировала адекватно (с 1 по 5)) — и запросил ещё повысить уровень конкретики.

Результаты удивили (как говорится)

Ха, после второго круга детализация и конкретика рекомендаций превзошла всякие ожидания. при этом ответы оставались адекватными. Только представьте себе, по каждому из выводов нейросеть дала аж 7 буллитов рекомендаций внутри каждого ответа!

Вывод

Так что если вам будут нужны ответы по-настоящему высокого качества в плане деталей и конкретики, попробуйте запустить такое самообучение. Думаю, результат будет стоить 20-30 минут, которые вы в это инвестируете;);)

PS: Генерализованный промпт здесь, в первом комментарии. Результаты и исходный документ показать не могу, тк клиентский проект.

А как вы повышаете качество ответов нейросети? Делитесь вашими подходами в комментариях!

в каталог кейсов
👍20🔥121🍓1



tgoop.com/PromptLab_Mozlab/90
Create:
Last Update:

Самообучение нейросети: самый простой подход

Очень интересную возможность самообучения нейросети сегодня реализовал с Claude.

Предыстория

Я анализировал довольно сложный 90-страничный документ — результаты исследования климата в команде. Искал в нем полезные инсайты. В промпте, в частности, были высокие требования к детализации ответа (подробный ПРОМПТ в первом комментарии). Я недавно писал о большом преимуществе ответов с высокой детализацией компонентов для оценки качества и релевантности ответа и стараюсь часто использовать такие элементы в промпте.

Я уже знаю, что, в отличие от ChatGPT-4, Claude быстро «утомляется», и если у него просить сразу много выводов, их конкретика и детализация линейно снижается от первого к, например, двадцатому. Поэтому некоторое время назад я придумал промпт-стратегию «сначала попроси длинный список (15-25 элементов), а потом запрашивай нужную детализацию последовательно для каждой следующей пятерки ответов». Стратегия работает стабильно. Сработала и в этот раз. Но я сделал и кое-что новое…

Что я сделал по-другому в этот раз?

В этот раз в каждый следующий промпт (для выводов 6-10, 11-15 и тп) я добавлял фразу: «Очень хорошо, ты сделал гораздо лучше и конкретнее. Продолжай работу для выводов с 6 по 10, но перед этим проанализируй свой предыдущий ответ и постарайся улучшить текущий, еще увеличив уровень конкретики в разделе рекомендации».

Что получилось?

Я увидел плавное повышение уровня конкретики рекомендаций в каждом ответе. Я раньше не сталкивался с таким (но я и не просил каждый раз улучшать, просто просил «сохрани такой же уровень конкретики, как в выводах 1-5»). Мне очень понравился этот эффект…

… и я совсем обнаглел и распоясался…

… и решил пойти по второму кругу, отталкиваясь от уже-почти совершенного ответа по последней пятерке выводов. Я попросил улучшить первые выводы, (которые нейросеть и так сформулировала адекватно (с 1 по 5)) — и запросил ещё повысить уровень конкретики.

Результаты удивили (как говорится)

Ха, после второго круга детализация и конкретика рекомендаций превзошла всякие ожидания. при этом ответы оставались адекватными. Только представьте себе, по каждому из выводов нейросеть дала аж 7 буллитов рекомендаций внутри каждого ответа!

Вывод

Так что если вам будут нужны ответы по-настоящему высокого качества в плане деталей и конкретики, попробуйте запустить такое самообучение. Думаю, результат будет стоить 20-30 минут, которые вы в это инвестируете;);)

PS: Генерализованный промпт здесь, в первом комментарии. Результаты и исходный документ показать не могу, тк клиентский проект.

А как вы повышаете качество ответов нейросети? Делитесь вашими подходами в комментариях!

в каталог кейсов

BY Лаборатория Промптинга Замышляева


Share with your friend now:
tgoop.com/PromptLab_Mozlab/90

View MORE
Open in Telegram


Telegram News

Date: |

The imprisonment came as Telegram said it was "surprised" by claims that privacy commissioner Ada Chung Lai-ling is seeking to block the messaging app due to doxxing content targeting police and politicians. The Standard Channel ZDNET RECOMMENDS You can invite up to 200 people from your contacts to join your channel as the next step. Select the users you want to add and click “Invite.” You can skip this step altogether. Other crimes that the SUCK Channel incited under Ng’s watch included using corrosive chemicals to make explosives and causing grievous bodily harm with intent. The court also found Ng responsible for calling on people to assist protesters who clashed violently with police at several universities in November 2019.
from us


Telegram Лаборатория Промптинга Замышляева
FROM American