سیاست و بازاریابی
گفت‌وگوی زیاد با هوش مصنوعی، آن را بی‌دقت می‌کند!
سه شنبه 5 اسفند 1404 - 14:11:17
سیاست و بازاریابی - ایسنا / تجربه بیشتر کاربران نشان می‌دهد هر چه بیشتر با چت‌بات‌های هوش مصنوعی صحبت کنید، انسجام خود را از دست می‌دهند و بی‌دقت می‌شوند. پژوهشگران سرانجام به دلیل این مشکل پی برده‌اند.
در عصری که چت‌بات‌های هوش مصنوعی می‌توانند وظایفی را مانند پشتیبانی فوری، پیش‌نویس اسناد و پاسخ به پرسش‌های پیچیده انجام ‌دهند، انتظارات برای قابلیت اطمینان مدل‌های زبانی بزرگ همچنان در حال افزایش است. بسیاری از کاربران هنگام تعامل با چت‌بات‌هایی مانند «چت‌جی‌پی‌تی»(ChatGPT) یا «جمینای»(Gemini) متوجه یک روند گیج‌کننده می‌شوند. پس از چندین تبادل، پاسخ‌ها اغلب دقت یا انسجام خود را از دست می‌دهند. چه چیزی باعث می‌شود هوش مصنوعی با طولانی شدن گفت‌وگو از مسیر اصلی خود خارج شود؟
با بررسی تحقیقات اخیر و مشاهدات روزمره، چندین عامل کلیدی آشکار می‌شوند که توضیح می‌دهند چرا گفت‌وگوها با هوش مصنوعی پیشرو به مرور زمان به بن‌بست می‌خورند. درک این محدودیت‌ها نه تنها به جلوگیری از مشکلات رایج کمک می‌کند، بلکه نحوه‌ بهره‌برداری حداکثری از این فناوری‌های قدرتمند را نیز آشکار می‌سازد.
تعاملات کوتاه با مدل‌های هوش مصنوعی معمولاً نتایج چشمگیری را به همراه دارد. سیستم‌های پیشرفته در رویارویی با یک پرسش، دقت قابل توجهی را از خود نشان می‌دهند و پاسخ‌هایی را ارائه می‌کنند که منطقی و مرتبط به نظر می‌رسند، اما با طولانی‌تر شدن بحث‌ها، مشکلات ظاهر می‌شوند و کسانی را که روی ثبات در گفت‌وگوهای طولانی‌تر حساب کرده‌اند، گیج می‌کنند.
این لغزش‌های فزاینده تصادفی نیستند، بلکه در نحوه‌ پردازش محتوا توسط هوش مصنوعی مولد، مدیریت حافظه و تلاش برای ارائه پاسخ‌های سریع و براساس تقاضا ریشه دارند.
پاسخ‌های تکراری چگونه اشتباهات را تشدید می‌کنند؟
بازار
بسیاری از چت‌بات‌های پیشرفته هر پاسخ را نه تنها براساس آخرین ورودی، بلکه براساس پاسخ‌های پیشین در همان گفت‌وگو نیز تولید می‌کنند. اگرچه این می‌تواند پیوستگی را افزایش دهد، اما خطراتی را نیز به همراه دارد. اگر در یک پاسخ اولیه خطایی ظاهر شود، مدل ممکن است آن را در پاسخ‌های بعدی حتی زمانی که اطلاعات جدیدی ارائه می‌شود، تقویت کند.
ربات به جای اصلاح خود، اغلب بر سوءتفاهم‌های اولیه تأکید می‌کند و باعث می‌شود خطاها به جای حل شدن به صورت طبیعی، انباشته شوند. برای موضوعاتی که در اواسط گفت‌وگو تغییر می‌کنند، هوش مصنوعی جهت تنظیم مجدد استدلال خود تلاش می‌کند و تحت تأثیر خروجی‌های پیشین باقی می‌ماند.
تحلیل‌ها الگوی قابل توجه دیگری را آشکار می‌کنند. با ادامه جلسات، میانگین پاسخ‌ها به طور قابل توجهی طولانی‌تر می‌شود. گاهی اوقات تنها پس از چند جلسه پیگیری، طول پاسخ‌ها سه برابر می‌شود. اگرچه جزئیات بیشتر ممکن است سودمند به نظر برسند، اما نتیجه اغلب برعکس است.
وقتی خروجی طولانی می‌شود، نکات اساسی پنهان می‌مانند، وضوح از بین می‌رود و دقت کاهش می‌یابد. این افزایش اطناب اغلب با افزایش خطاها همراه است و باعث می‌شود گفت‌وگوهای طولانی کمتر سودمند و بیشتر گیج‌کننده باشند.
چه چیزی باعث می‌شود هوش مصنوعی به توهم دچار شود؟
پدیده غیرمعمولی که در آن چت‌بات‌های پیشرفته اظهارات نادرست یا بی‌معنی تولید می‌کنند، به عنوان توهم شناخته می‌شود. این لحظه‌ها اغلب در گفت‌وگوهایی رخ می‌دهند که فراتر از تعداد انگشت‌شماری تبادل نظر هستند، اما چرا چنین خطاهایی این قدر سریع ظاهر می‌شوند؟
در سال‌های پس از ورود چت‌جی پی‌تی، شرکت‌های فناوری، کارمندان اداری و مصرف‌کنندگان روزمره از ربات‌های هوش مصنوعی برای طیف گسترده‌ای از وظایف استفاده می‌کنند، اما هنوز هیچ راهی برای اطمینان از تولید اطلاعات دقیق توسط این سیستم‌ها وجود ندارد. جدیدترین و قدرتمندترین این فناوری‌ها که قدرت استدلال را به نمایش می‌گذارند، خطاهای بیشتری را ایجاد می‌کنند، نه کمتر. با بهبود قابل توجه مهارت‌های ریاضی چت‌بات‌های هوش مصنوعی، درک آنها از حقایق متزلزل‌تر شده است.
ربات‌های هوش مصنوعی امروزی مبتنی بر سیستم‌های ریاضی پیچیده‌ای هستند که مهارت‌های خود را با تجزیه و تحلیل حجم بزرگی از داده‌های دیجیتال یاد می‌گیرند. آنها نمی‌توانند تصمیم بگیرند که چه چیزی درست و چه چیزی نادرست است. گاهی اوقات، آنها فقط چیزهایی را از خودشان درمی‌آورند و توهم هوش مصنوعی را به نمایش می‌گذارند.
بخشی از مشکل این است که مدل‌های بزرگ زبانی به گونه‌ای طراحی شده‌اند که واژه بعدی را با استفاده از محتوای پیشین پیش‌بینی کنند، نه این که حقایق را در لحظه مورد تأیید قرار دهند. انگیزه ارائه پاسخ‌های روان و قانع‌کننده گاهی اوقات منطق سختگیرانه را تحت الشعاع قرار می‌دهد. با گذشت زمان، تمایل به برآورده کردن انتظارات درک‌شده کاربر بر خوداصلاحی غلبه می‌کند و باعث می‌شود اشتباهات ادامه داشته باشند.
چه کارهایی آسیب‌پذیرتر هستند؟
کارهایی که شامل بررسی اسناد، تولید کد یا پشتیبانی تصمیم‌گیری هستند، حساسیت ویژه‌ای را در برابر این نقاط ضعف دارند. در موقعیت‌هایی که نیازمند دقت بالا هستند، خطاهای تجمعی می‌توانند عواقب جدی را به ویژه در زمانی داشته باشند که هر مرحله به دستورالعمل‌های پیشین بستگی دارد.
گردش‌های کاری تجاری که با هوش مصنوعی ادغام می‌شوند، در صورت عدم نظارت با خطرات بیشتری روبه‌رو خواهند شد. گفت‌وگوهای مداوم که از چند پیام تجاوز می‌کنند، ممکن است نتایج غیر قابل پیش‌بینی را برای کارهای حیاتی به وجود بیاورند که بر اهمیت بررسی و نظارت تأکید دارد.
همه چت‌بات‌ها به یک شکل رفتار می‌کنند؟
اگرچه تفاوت‌هایی بین برندها و ساختارهای گوناگون وجود دارد، اما شواهد کنونی نشان می‌دهند که هیچ چت‌بات هوش مصنوعی بزرگی کاملاً از این گرایش در امان نیست. حتی مدل‌هایی با دقت فوق‌العاده در پرسش‌های مجزا نیز در طول چندین نوبت، ناپایداری نشان می‌دهند. قابلیت اطمینان صرف نظر از ارائه‌دهنده، به طور پیوسته کاهش می‌یابد و این موضوع را به عنوان یک چالش در سطح صنعت برجسته می‌کند.
میزان انحراف ممکن است بین پلتفرم‌ها متفاوت باشد، اما علل اساسی مانند وابستگی به خروجی پیشین، محدودیت‌های پنجره‌های متن و فشار برای ارائه پاسخ‌های سریع و قابل قبول ثابت هستند.
بهترین شیوه‌ها هنگام تعامل با چت‌بات‌های هوش مصنوعی
شناخت این ویژگی‌ها برای هر کسی که قصد دارد از مدل‌های زبانی به طور مؤثر استفاده کند، بسیار مهم است. راهبردهای خاصی وجود دارند که در به حداقل رساندن خطرات مرتبط با گفت‌وگوهای طولانی کمک می‌کنند.
کارشناسان پیشنهاد می‌کنند که عادت‌های استفاده تطبیق داده شوند و مرزهای مشخصی برای نقاط قوت و ضعف هوش مصنوعی تعیین گردد. برخی از راهبردها به شرح زیر هستند.
به جای پرسش‌های چندلایه، پرسش‌های مختصر و ساختارمند بپرسید.
گفت‌وگوها را کوتاه نگه دارید و در حالت ایده‌آل، تا حد امکان آنها را به یک یا دو گفت‌وگو محدود کنید.
اگر به توضیح بیشتر نیاز است، به جای تمدید گفت‌وگوی کنونی، یک گفت‌وگوی جدید را آغاز کنید.
همیشه حقایق مهم را به طور مستقل تأیید کنید، نه این که صرفاً به پاسخ‌های چت‌بات‌ها تکیه داشته باشید.
هنگام پیشبرد گفت‌وگوها مراقب تکرار، توضیحات بیش از حد یا تغییرات ناگهانی در منطق چت‌بات باشید.
با وجود پیشرفت‌های اخیر، مدل‌های بزرگ زبانی امروزی هنوز در دیالوگ‌های طولانی، از تطابق با وفاداری یک همراه انسانی ناتوان هستند. گروه‌های پژوهشی سراسر جهان در حال کار کردن روی بهبودهایی در پایداری حافظه، خوداصلاحی و آگاهی از متن هستند تا این شکاف را پر کنند. روش‌های بازآموزی پیشرفته و شفافیت بیشتر با کاربران نیز می‌تواند قابلیت اطمینان کلی را افزایش دهد.
تا آن زمان، درک نقاط قوت و محدودیت‌های چت‌بات‌ها می‌تواند به ادغام هوشمندانه‌تر و ایمن‌تر در گردش‌های کاری روزانه کمک کند. کاربران آگاه برای دستیابی به نتایج بهتر، به ترکیب کمک‌های ماشینی با قضاوت شخصی ادامه خواهند داد.

https://www.siasatvabazaryabi.ir/Fa/News/792112/گفت‌وگوی-زیاد-با-هوش-مصنوعی،-آن-را-بی‌دقت-می‌کند!
بستن   چاپ