Notice: file_put_contents(): Write of 8416 bytes failed with errno=28 No space left on device in /var/www/tgoop/post.php on line 50

Warning: file_put_contents(): Only 12288 of 20704 bytes written, possibly out of free disk space in /var/www/tgoop/post.php on line 50
Лаборатория Промптинга Замышляева@PromptLab_Mozlab P.90
PROMPTLAB_MOZLAB Telegram 90
Самообучение нейросети: самый простой подход

Очень интересную возможность самообучения нейросети сегодня реализовал с Claude.

Предыстория

Я анализировал довольно сложный 90-страничный документ — результаты исследования климата в команде. Искал в нем полезные инсайты. В промпте, в частности, были высокие требования к детализации ответа (подробный ПРОМПТ в первом комментарии). Я недавно писал о большом преимуществе ответов с высокой детализацией компонентов для оценки качества и релевантности ответа и стараюсь часто использовать такие элементы в промпте.

Я уже знаю, что, в отличие от ChatGPT-4, Claude быстро «утомляется», и если у него просить сразу много выводов, их конкретика и детализация линейно снижается от первого к, например, двадцатому. Поэтому некоторое время назад я придумал промпт-стратегию «сначала попроси длинный список (15-25 элементов), а потом запрашивай нужную детализацию последовательно для каждой следующей пятерки ответов». Стратегия работает стабильно. Сработала и в этот раз. Но я сделал и кое-что новое…

Что я сделал по-другому в этот раз?

В этот раз в каждый следующий промпт (для выводов 6-10, 11-15 и тп) я добавлял фразу: «Очень хорошо, ты сделал гораздо лучше и конкретнее. Продолжай работу для выводов с 6 по 10, но перед этим проанализируй свой предыдущий ответ и постарайся улучшить текущий, еще увеличив уровень конкретики в разделе рекомендации».

Что получилось?

Я увидел плавное повышение уровня конкретики рекомендаций в каждом ответе. Я раньше не сталкивался с таким (но я и не просил каждый раз улучшать, просто просил «сохрани такой же уровень конкретики, как в выводах 1-5»). Мне очень понравился этот эффект…

… и я совсем обнаглел и распоясался…

… и решил пойти по второму кругу, отталкиваясь от уже-почти совершенного ответа по последней пятерке выводов. Я попросил улучшить первые выводы, (которые нейросеть и так сформулировала адекватно (с 1 по 5)) — и запросил ещё повысить уровень конкретики.

Результаты удивили (как говорится)

Ха, после второго круга детализация и конкретика рекомендаций превзошла всякие ожидания. при этом ответы оставались адекватными. Только представьте себе, по каждому из выводов нейросеть дала аж 7 буллитов рекомендаций внутри каждого ответа!

Вывод

Так что если вам будут нужны ответы по-настоящему высокого качества в плане деталей и конкретики, попробуйте запустить такое самообучение. Думаю, результат будет стоить 20-30 минут, которые вы в это инвестируете;);)

PS: Генерализованный промпт здесь, в первом комментарии. Результаты и исходный документ показать не могу, тк клиентский проект.

А как вы повышаете качество ответов нейросети? Делитесь вашими подходами в комментариях!

в каталог кейсов
👍20🔥121🍓1



tgoop.com/PromptLab_Mozlab/90
Create:
Last Update:

Самообучение нейросети: самый простой подход

Очень интересную возможность самообучения нейросети сегодня реализовал с Claude.

Предыстория

Я анализировал довольно сложный 90-страничный документ — результаты исследования климата в команде. Искал в нем полезные инсайты. В промпте, в частности, были высокие требования к детализации ответа (подробный ПРОМПТ в первом комментарии). Я недавно писал о большом преимуществе ответов с высокой детализацией компонентов для оценки качества и релевантности ответа и стараюсь часто использовать такие элементы в промпте.

Я уже знаю, что, в отличие от ChatGPT-4, Claude быстро «утомляется», и если у него просить сразу много выводов, их конкретика и детализация линейно снижается от первого к, например, двадцатому. Поэтому некоторое время назад я придумал промпт-стратегию «сначала попроси длинный список (15-25 элементов), а потом запрашивай нужную детализацию последовательно для каждой следующей пятерки ответов». Стратегия работает стабильно. Сработала и в этот раз. Но я сделал и кое-что новое…

Что я сделал по-другому в этот раз?

В этот раз в каждый следующий промпт (для выводов 6-10, 11-15 и тп) я добавлял фразу: «Очень хорошо, ты сделал гораздо лучше и конкретнее. Продолжай работу для выводов с 6 по 10, но перед этим проанализируй свой предыдущий ответ и постарайся улучшить текущий, еще увеличив уровень конкретики в разделе рекомендации».

Что получилось?

Я увидел плавное повышение уровня конкретики рекомендаций в каждом ответе. Я раньше не сталкивался с таким (но я и не просил каждый раз улучшать, просто просил «сохрани такой же уровень конкретики, как в выводах 1-5»). Мне очень понравился этот эффект…

… и я совсем обнаглел и распоясался…

… и решил пойти по второму кругу, отталкиваясь от уже-почти совершенного ответа по последней пятерке выводов. Я попросил улучшить первые выводы, (которые нейросеть и так сформулировала адекватно (с 1 по 5)) — и запросил ещё повысить уровень конкретики.

Результаты удивили (как говорится)

Ха, после второго круга детализация и конкретика рекомендаций превзошла всякие ожидания. при этом ответы оставались адекватными. Только представьте себе, по каждому из выводов нейросеть дала аж 7 буллитов рекомендаций внутри каждого ответа!

Вывод

Так что если вам будут нужны ответы по-настоящему высокого качества в плане деталей и конкретики, попробуйте запустить такое самообучение. Думаю, результат будет стоить 20-30 минут, которые вы в это инвестируете;);)

PS: Генерализованный промпт здесь, в первом комментарии. Результаты и исходный документ показать не могу, тк клиентский проект.

А как вы повышаете качество ответов нейросети? Делитесь вашими подходами в комментариях!

в каталог кейсов

BY Лаборатория Промптинга Замышляева


Share with your friend now:
tgoop.com/PromptLab_Mozlab/90

View MORE
Open in Telegram


Telegram News

Date: |

The public channel had more than 109,000 subscribers, Judge Hui said. Ng had the power to remove or amend the messages in the channel, but he “allowed them to exist.” Healing through screaming therapy The imprisonment came as Telegram said it was "surprised" by claims that privacy commissioner Ada Chung Lai-ling is seeking to block the messaging app due to doxxing content targeting police and politicians. Find your optimal posting schedule and stick to it. The peak posting times include 8 am, 6 pm, and 8 pm on social media. Try to publish serious stuff in the morning and leave less demanding content later in the day. As the broader market downturn continues, yelling online has become the crypto trader’s latest coping mechanism after the rise of Goblintown Ethereum NFTs at the end of May and beginning of June, where holders made incoherent groaning sounds and role-played as urine-loving goblin creatures in late-night Twitter Spaces.
from us


Telegram Лаборатория Промптинга Замышляева
FROM American