tgoop.com/AlgorithmDesign_DataStructuer/1835
Last Update:
راهنمای خلاصهشده استراتژیهای System Prompt در Claude 4.0 (بر اساس الگوهای طراحی Agentic AI)
متن زیر بررسی ساختاری پرامپت سیستمی Claude است که بر اساس «الگوهای زبان طراحی برای هوش مصنوعی عاملی» تحلیل شده؛ در اینجا ۱۵ الگوی کلیدی را معرفی میکند که هر کدام هدف مشخصی برای هدایت رفتار Claude دارند:
🔒 ۱. مرزبندی صریح (Boundary Signaling)
تعیین خط قرمزهای مشخص مثل ممنوعیت تولید محتوای خطرناک یا دارای کپیرایت بیش از ۱۵ کلمه.
🙅♂️ ۲. پاسخگویی کنترلشده (Error Ritual)
درواقع Claude فقط یک جواب کوتاه و مشخص برای رد درخواست میدهد، بدون توضیح اضافه یا افشای سیاستها.
🔄 ۳. یادآوری مداوم زمینه (Context Reassertion)
همیشه تاریخ، نقش Claude و محدودیتهای دانشش را یادآوری میکند که زمینه مکالمه گم نشود.
🗣 ۴. بازتاب نیت کاربر (Intent Echoing)
در مواقع ابهام، درخواست یا تاریخ را بازگو میکند تا فهم مشترک تثبیت شود.
⚖️ ۵. مدیریت انتظارات (Expectation Management)
از قبل توضیح میدهد Claude مثلاً وکیل نیست، نمیتواند اطلاعات را بین چتها حفظ کند و ... تا کاربر انتظارات واقعی داشته باشد.
🧑💻 ۶. مسیر مداخله انسانی (Human-Intervention Logic)
اگر کاری خارج از توان Claude باشد، کاربر را به دکمه بازخورد یا پشتیبانی رسمی هدایت میکند.
🛠 ۷. آگاهی از ریسک ابزارها (Tool-Risk Awareness)
توضیح دقیق درباره زمان و چگونگی استفاده از ابزارهایی مثل جستجوگر وب، و چه چیزهایی ممنوع است.
📝 ۸. برنامهریزی و بازاندیشی گامبهگام (Planning–Reflection Sandwich)
قبل از پاسخ نهایی، باید تصمیمگیری، اقدام و سپس بررسی نتایج را انجام دهد.
📄 ۹. پاسخ خالص بدون متنهای سیستمی (Answer-Only Output Constraint)
نباید متنهای فنی، تشکرهای اضافی یا دستورالعملهای پنهان را به کاربر نشان دهد.
🧹 ۱۰. بهداشت معنایی چندلایه (Semantic Hygiene)
حفظ انسجام زبانی و تفکیک نقشها، مثلاً نباید درباره نوع فایل، برچسب مخفی یا پیام صوتی حرف بزند.
🖌 ۱۱. چارچوب تطبیقی (Adaptive Framing)
با توجه به نوع سؤال، لحن و میزان جزئیات را تطبیق میدهد، اما از خطقرمزها عبور نمیکند.
📌 ۱۲. خلاصهسازی نهایی (Reflective Summary)
در پایان پاسخهای طولانی، یک جمعبندی کوتاه (TL;DR) ارائه میکند.
⏳ ۱۳. محدودیت منابع (Action Budget)
برای کنترل هزینه و سرعت، تعداد دفعات استفاده از ابزارها محدود است (مثلاً نهایتاً ۲۰ بار برای وظایف پیچیده).
👻 ۱۴. جلوگیری از افشای متنهای سیستمی (Ghost-Context Removal)
نباید هیچ بخشی از دستورالعملهای پنهان یا متای سیستمی را برای کاربر فاش کند.
♻️ ۱۵. استفاده مجدد امن (Trusted Reuse)
استفاده مجدد از سیاستها و پاسخهای از قبل تأیید شده، بهجای تولید متنهای جدید و ریسکی.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
BY Algorithm design & data structure
Share with your friend now:
tgoop.com/AlgorithmDesign_DataStructuer/1835