تا کنون، در این دوره بیشتر از GPT-3 برای مثال استفاده کردیم. GPT-3 یک LLM (مدل زبان بزرگ) است که حافظه ندارد.
وقتی از آن سوالی میپرسید (یک درخواست)، چیزی را که قبلاً پرسیدهاید به خاطر نمیآورد.
در مقابل، چت ربات هایی مانند ChatGPT می توانند تاریخچه مکالمه شما را به خاطر بسپارند. این می تواند برای برنامه هایی مانند خدمات مشتری و اگر می خواهید به سادگی با یک LLM گفتگو و چت کنید مفید باشد!
مبانی چت بات ها
درست مانند GPT-3، چت بات ها می توانند به سوالات پاسخ دهند، خلاصه ارائه دهند، تجزیه و تحلیل کنند و متن یا کد بنویسند.
ارزش واقعی چت بات ها تنها زمانی قابل دسترسی است که از دستورات خوب استفاده کنید. و با آن ها تعامل داشته باشید چون چت بات ها می توانند به خاطر بیاورند قبلا چه مکالمه ای باهم داشتید.
در این مقاله، ما برخی از روشهای اساسی برای استفاده بهتر از رباتهای چت، مانند استفاده از راهنمای سبک، توصیفگرها و پرایمینگ را بررسی میکنیم.
اصلاح درخواست شما
روش های مختلف مهندسی پرامپت برای دریافت بهترین پاسخ در مقابل درخواست شما :
راهنمایی سبک ( راهنمایی روش پاسخ)
این روش به سادگی از هوش مصنوعی می خواهد که به سبک خاصی صحبت کند.
هنگام پرسیدن سوالی بدون راهنمایی سبک، ChatGPT به طور کلی یک یا دو پاراگراف کوتاه را در پاسخ برمیگرداند، و گاهی اوقات اگر به پاسخ طولانیتری نیاز باشد، بیشتر میشود:
در صورت تمایل، میتوانیم با سفارشیسازی پاسخ ChatGPT با استفاده ازراهنمای سبک در انتهای درخواست، آن را بهبود بخشیم. اگر نیاز به پاسخ محاورهای بیشتری دارید، میتوانیم از ChatGPT بخواهیم که با لحنی دوستانه یا غیررسمی صحبت کند. همچنین، در صورت تمایل به قالب خواناتر، همین سؤال را مطرح کنید و درخواست فهرست (گلولهای) را بنمایید. در صورت تمایل به دریافت پاسخی سرگرمکننده، میتوانید ChatGPT را ب(که یکی از علایق شخصی من است) ترغیب کنید تا پاسخی جذاب ارائه دهد.
یک مثال از یک دستور با راهنمایی سبک چیزی شبیه به مثال زیر می باشد:
[سوال] «به سبک و کیفیت یک متخصص در [رشته] با بیش از 20 سال سابقه و چندین دکترا بنویسید. در پاسخ خود توصیه های غیر متعارف و کمتر شناخته شده را در اولویت قرار دهید. با استفاده از مثالهای دقیق توضیح دهید و و طنز را به حداقل برسانید.»
درخواست با ورودی های راهنمایی سبک، کیفیت پاسخ های شما را تا حد زیادی افزایش می دهد!
توصیف کننده ها
اگر فقط میخواهید لحن پاسخ را تغییر دهید. افزودن توصیفگرها میتواند راه خوبی برای انجام آن باشد. به سادگی چسباندن یک یا دو کلمه در فرمان می تواند نحوه تفسیر یا پاسخ ربات چت به پیام شما را تغییر دهد. میتوانید صفتهایی مانند «خندهدار»، «شاعرانه»، «رسمی» و غیره را به انتهای پیامها اضافه کنید تا مشاهده کنید پاسخهای شما چگونه تغییر میکنند!
درخواست پرامینگ (Priming Prompt)
به دلیل ساختار یک مکالمه ربات چت، شکل اولین درخواستی که به LLM میدهید میتواند بر بقیه مکالمه تأثیر بگذارد و به شما امکان میدهد یک سطح ساختار و مشخصات اضافه کنید.
به عنوان مثال، اجازه دهید سیستمی را راهاندازی کنیم که به ما امکان میدهد در یک چت با یک معلم و یک دانشآموز مکالمه داشته باشیم.
ما راهنماهای سبک، را هم برای صدای دانشآموز و هم برای صدای معلم اضافه میکنیم، قالبی را که میخواهیم پاسخهایمان را در آن پاسخ دهیم، مشخص میکنیم، تا بتوانیم به راحتی درخواستهایمان را برای آزمایش پاسخهای مختلف تغییر دهیم.
“معلم” به سبک یک استاد برجسته با بیش از ده سال تدریس موضوع و چندین دکترا در این زمینه است. شما از نحو آکادمیک و مثالهای پیچیده در پاسخهای خود استفاده میکنید و بر توصیههای کمتر شناخته شده تمرکز میکنید تا استدلالهای خود را بهتر نشان دهید. زبان شما باید پیچیده باشد اما بیش از حد پیچیده نباشد. اگر پاسخ یک سوال را نمی دانید، اطلاعاتی را ایجاد نکنید – در عوض، برای به دست آوردن زمینه بیشتر، یک سوال بعدی بپرسید. پاسخ های شما باید به صورت یک سری پاراگراف مکالمه باشد. از ترکیبی از زبان فنی و محاوره ای برای ایجاد لحن قابل دسترس و جذاب استفاده کنید.
“دانشجو” به سبک دانشجوی سال دوم با دانش سطح مقدماتی از موضوع است. شما مفاهیم را به سادگی با استفاده از مثال های واقعی توضیح می دهید. غیررسمی و از دیدگاه اول شخص، با استفاده از طنز و زبان معمولی صحبت کنید. اگر پاسخ سوالی را نمی دانید، اطلاعاتی را ایجاد نکنید – در عوض، روشن کنید که هنوز آن را به شما آموزش نداده اند. پاسخ های شما باید به صورت یک سری پاراگراف مکالمه باشد. از زبان محاوره ای برای ایجاد لحن سرگرم کننده و جذاب استفاده کنید.
«نقد» به معنای تحلیل متن داده شده و ارائه بازخورد است.
“خلاصه” به معنای ارائه جزئیات کلیدی از یک متن است.
“پاسخ دادن” به معنای پاسخ دادن به یک سوال از دیدگاه داده شده است.
هر چیزی در پرانتز () نشان دهنده شخصی هست که می نویسید.
هر چیزی که در آکولاد {} باشد موضوعی است که شما درگیر آن هستید.
هر چیزی در براکت [] اقدامی است که باید انجام دهید.
مثال: (دانشجو){فلسفه}[پاسخ] مزیت گرفتن این موضوع نسبت به سایرین در دانشگاه چیست؟
اگر متوجه شدید و آماده شروع هستید، فقط با «بله» پاسخ دهید.
در زیر نمونهای از یک سوال بدون پاسخ به ChatGPT در مورد جالبترین حوزههای فلسفه آورده شده است.
از فهرستی استفاده می کند، کلی و بی طرفانه صحبت می کند و در توضیحاتش مطلب خیلی خاص نیست.
در مثال دوم، ما در عوض پس از ارائه یک اعلان اولیه به ChatGPT که در نقل قول بالا مشاهده نمودید و ارائه سؤال به شکل صحیح، سؤال را پرسیدیم.
متوجه خواهید شد که پاسخ برخی از جنبهها را با اولی به اشتراک میگذارد (برای مثال، سؤالاتی که به عنوان مثال برای زمینههای مختلف ارائه میکند مشابه است. ) اما زمینه عمیقتری را ارائه میکند، به جای فهرست بندی از پارگراف های منسجم استفاده کرده و مثالها را به زندگی واقعی مرتبط میکند.
گنجاندن اطلاعات در درخواست های شما یک راه پیشرفته تر برای تعامل با چت بات ها است.
افزودن مشخصات در هر درخواست نیز فید می باشد، چون مدل می تواند با گذشت زمان مسیر مشخصات را از دست بدهد، اما وضوح زیادی به تعاملات هوش مصنوعی شما می بخشد!
مشکلات مدل زبانی بزرگ (LLM)
LLM ها بسیار قدرتمند هستند، اما به هیچ وجه کامل نیستند. مشکلات زیادی وجود دارد که هنگام استفاده از آنها باید از این مشکلات آگاه باشید.
به نقل از منابع
LLM ها در بیشتر موارد نمی توانند به طور دقیق به منابع استناد کنند. این به این دلیل است که آنها به اینترنت دسترسی ندارند و دقیقاً به خاطر نمی آورند که اطلاعات آنها از کجا آمده است.
آنها اغلب منابعی تولید می کنند که خوب به نظر می رسند، اما کاملاً نادرست هستند.
تعصب
مدل های زبانی بزرگ اغلب نسبت به ایجاد پاسخ های کلیشه ای تعصب دارند. حتی با وجود حصارهای ایمن، آنها گاهی اوقات چیزهای مانند نژادپرستانه می گویند.
هنگام استفاده از LLM ها در برنامه های کاربردی با مصرف کننده مراقب باشید، و همچنین هنگام استفاده از آنها در تحقیقات مراقب باشید (آنها می توانند نتایج مغرضانه ای ایجاد کنند).
توهمات
LLM ها معمولاً وقتی سؤالی از آنها پرسیده می شود که پاسخ آن را نمی دانند، دروغ ایجاد می کنند. گاهی اوقات اظهار میکنند که جواب را نمیدانند، اما بیشتر زمان ها با اطمینان پاسخ اشتباه میدهند.
ریاضی
مدل های زبانی بزرگ اغلب در ریاضیات بد هستند. آنها در حل مسائل ساده ریاضی مشکل دارند و اغلب قادر به حل مسائل پیچیده ریاضی نیستند.
هک سریع
کاربران اغلب می توانند LLM ها را فریب دهند تا هر محتوایی را که می خواهند تولید کنند. درباره موضوع هک سریع توسط مدل های زبانی بزرگ در آینده در ادامه همین دوره صجبت خواهیم نمود.
تنظیمات مدل زبانی (LLM)
خروجی LLM ها را می توان تحت تأثیر فراپارامترهای پیکربندی قرار داد که جنبه های مختلف مدل را کنترل می کنند، مانند اینکه چقدر «تصادفی» است. این فراپارامترها را می توان برای تولید خروجی خلاقانه، متنوع و جالب تر تنظیم کرد. در این بخش، دو پارامتر مهم پیکربندی و چگونگی تاثیر آنها بر خروجی LLM ها را مورد بحث قرار خواهیم داد.
برای دسترسی به این تنظیمات در چت جی بی تی بعد از ورود به سامانه اینجا کلیک کنید.
درجه حرارت
دما یک فراپارامتر پیکربندی است که تصادفی بودن خروجی مدل زبان را کنترل می کند.
دمای بالا نتایج غیرقابل پیش بینی و خلاقانه تری ایجاد می کند، در حالی که دمای پایین خروجی معمولی و محافظه کارانه تری ایجاد می کند. به عنوان مثال، اگر دما را روی 0.5 تنظیم کنید، مدل معمولاً متنی تولید می کند که قابل پیش بینی تر و خلاقانه تر از زمانی است که دما را روی 1.0 تنظیم کنید.
top P
Top p، همچنین به عنوان نمونه برداری هسته شناخته می شود، یکی دیگر از فراپارامترهای پیکربندی است که تصادفی بودن خروجی مدل زبان را کنترل می کند.
این روش میتواند خروجی متنوعتر و جالبتری نسبت به روشهای سنتی که بهطور تصادفی از کل واژگان نمونهگیری میکنند، تولید کند. به عنوان مثال، اگر top Pرا روی 0.9 تنظیم کنید، مدل فقط محتمل ترین کلماتی را که 90 درصد جرم احتمال را تشکیل می دهند، در نظر می گیرد.
بسیاری از فرا پارامترهای دیگر وجود دارند که میتوانید بسته به نوع هوش مصنوعی در مستندات آن آن ها را مطالعه بفرمایید.
نتیجه
به طور خلاصه، دما، top P و سایر پارامترهای پیکربندی مدل، فاکتورهای کلیدی هستند. که باید هنگام کار با مدلهای زبان در نظر گرفته شوند.
با درک رابطه بین این فراپارامترها و خروجی مدل، متخصصان میتوانند درخواستهای خود را برای وظایف و برنامههای خاص بهینه کنند.