سوگیریهای هوش مصنوعی به اندازه انسانهاست
نکات خواندني
بزرگنمايي:
سیاست و بازاریابی - ایسنا /مطالعهای جدید نشان میدهد که «هوش مصنوعی» میتواند به اندازه انسانها بیش از حد مطمئن و جانبدارانه تصمیم بگیرد و تعصب و سوگیری داشته باشد.
گرایشهای غیرمنطقی معمولاً در سامانههای «هوش مصنوعی» ظاهر میشوند و مفید بودن آنها را زیر سوال میبرند.
اگرچه انسان و «هوش مصنوعی» بسیار متفاوت فکر میکنند، تحقیقات جدید نشان داده است که «هوش مصنوعی» گاهی اوقات به اندازه انسان غیر منطقی تصمیم میگیرد.
به نقل از الاس، در نیمی از سناریوهای بررسی شده در یک مطالعه جدید، «چتجیپیتی»(ChatGPT) بسیاری از رایجترین «سوگیریهای»(biases) تصمیمگیری انسانی را از خود نشان داد. این نتایج، اولین یافتههای مرتبط با رفتار «سوگیری شناختی»(cognitive biases) شناخته شده در روانشناسی انسان در «چتجیپیتی» است.
نویسندگان این مقاله، از پنج موسسه دانشگاهی در سراسر کانادا و استرالیا، روی دو «مدل زبان بزرگ»(LLM) که «چتجیپیتی» را پشتیبانی میکنند، آزمایش کردند. آنها کشف کردند که «هوش مصنوعی» برخلاف سازگاری زیاد در استدلال خود در برابر نقصهای انسانی مصون نیست. به گفته محققان، اینچنین سازگاری، هم اثرات مثبت و هم اثرات منفی دارد.
«یانگ چن»(Yang Chen) نویسنده ارشد این مطالعه و استادیار مدیریت عملیات در «دانشکده بازرگانی ایوی»(Ivey) گفت: مدیران در استفاده از این ابزارها برای حل مشکلاتی با راهحل واضح و فرمولی مشخص، بیشترین منفعت را خواهند داشت، اما اگر کاربران از آنها برای تصمیمات ذهنی یا ترجیحی استفاده میکنند، بهتر است با احتیاط عمل کنند.
این مطالعه «سوگیریهای انسانی» شناخته شده از جمله «خطرگریزی»(risk aversion)، داشتن اعتماد به نفس بیش از حد و «اثر برخورداری»(endowment effect) را درنظر گرفت و آنها را در دستورالعملهای داده شده به «چتجیپیتی» اعمال کرد تا ببیند آیا در همان تلههایی که انسانها گرفتار میشوند، قرار میگیرد یا خیر.
«خطرگریزی» به معنای ترجیح پذیرش خطر کمتر و جلوگیری از خطر غیر ضروری است.
«اثر برخورداری» نیز نوعی سوگیری عاطفی است که باعث میشود افراد چیزی را که دارند بسیار با ارزشتر از ارزش واقعی آن تصور کنند.
تصمیمگیریهای منطقی تنها در برخی موارد
دانشمندان از «مدلهای زبان بزرگ» سوالات فرضی برگرفته از روانشناسی سنتی و در زمینه تجارت در دنیای واقعی مانند مدیریت موجودی یا مذاکرات تأمینکنندگان پرسیدند. هدف آنها این بود متوجه شوند که آیا «هوش مصنوعی» «سوگیریهای انسانی» را تقلید میکند یا خیر. آنها همچنین قصد داشتند که متوجه شوند آیا این مدلها هنگام پرسیدن سوالات از حوزههای مختلف تجاری هم این کار را انجام میدهند یا خیر.
یکی از «مدلهای زبانی بزرگ» موسوم به «GPT-4» در پاسخ به مسائلی با راهحلهای ریاضی واضح، عملکرد بهتری نسبت به مدل دیگر با نام «GPT-3.5» داشت و اشتباهات کمتری در سناریوهای احتمال و منطقمحور نشان داد، اما در شبیهسازیهای ذهنی مانند انتخاب یک گزینه پرخطر برای دستیابی به سود، این چتبات اغلب ترجیحات غیرمنطقی را که انسانها تمایل به نشان دادن آن دارند، انتخاب میکرد.
محققان گفتند: «GPT-4» حتی از انسانها نیز تمایل قویتری برای قطعیت نشان میدهد.
این موضوع تمایل «هوش مصنوعی» به نتایج ایمنتر و قابل پیشبینیتر هنگام انجام وظایف مبهم اشاره دارد.
مهمتر از همه، رفتارهای چتباتها در واکنش به سوالات در مسائل روانشناختی انتزاعی و فرآیندهای تجاری عملیاتی، عمدتاً پایدار باقی ماند.
این مطالعه نتیجه گرفت که «سوگیریهای» نشان داده شده تنها محصول مثالهای حفظ شده نیستند و بخشی از نحوه استدلال «هوش مصنوعی» هستند.
یکی از نتایج شگفتانگیز این مطالعه، تقویت خطاهای انسانی توسط «GPT-4» است. دانشمندان گفتند: در «سوگیری تأییدی»(confirmation bias)، مدل «GPT-4» همیشه پاسخهای سوگیرانه میداد.
همچنین این مدل تمایل بیشتری به «مغالطه دست داغ»(hot-hand) نسبت به «GPT 3.5» نشان داد.
«مغالطه دست داغ» یکی از «سوگیریهای شناختی» است که به این باور غیرمنطقی اشاره دارد که وقتی ما در یک بازی وابسته به شانس، چند دست پشت سر هم میبریم یا میبازیم، به اصطلاح داغ یا سرد میشویم و تصور میکنیم که این برد یا باخت پیاپی قرار است همچنان ادامه پیدا کند. در حالی که همچنان بر اساس علم احتمالات، هیچ چیزی تغییر نکرده و شانس برد ما درست مانند دفعات قبل است.
بر خلاف مدلها، «چتجیپیتی» موفق شد از برخی از «سوگیریهای» رایج انسانی از جمله «غفلت از نرخ پایه»(base-rate neglect) و «مغالطه هزینه غرقشده»(Sunk Cost Fallacy) اجتناب کند.
«غفلت از نرخ پایه» به معنای اعتماد و پذیرش موارد خاص و نادیده گرفتن آمار و اطلاعات موجود در هنگام استدلال کردن است.
«مغالطه هزینه غرقشده» نیز زمانی رخ میدهد که شخص فقط به این دلیل به تصمیم خود پایبند است که پول قبلا خرج شده است و نمیخواهد احساس کند که آن را هدر داده است.
به گفته پژوهشگران، «سوگیریهای» شبهانسانی در «چتجیپیتی» از دادههای آموزشی ناشی میشود که شامل «سوگیریهای شناختی» و اکتشافی است که انسانها از خود نشان میدهند. این گرایشها در شرایط خاص، تقویت میشوند.
این تقویت زمانی که انسان پاسخهای محتمل را به پاسخهای منطقی ترجیح میدهد، بیشتر میشود. وقتی «هوش مصنوعی» با وظایف مبهمتری روبرو میشود، بیشتر به سمت الگوهای استدلال انسانی تا منطق سامانهای متمایل میشود.
«چن» گفت: اگر یک تصمیمگیری دقیق و بیطرفانه میخواهید، از «چتجیپیتی» در حوزههایی استفاده کنید که میزان اعتماد لازم در حد اعتماد به یک ماشینحساب باشد.
با این حال، وقتی نتیجه بیشتر به ورودیهای ذهنی یا استراتژیکی وابسته است، نظارت انسانی اهمیت بیشتری پیدا میکند. حتی اگر دستورالعملهای کاربر برای اصلاح «سوگیریهای» شناخته شده باشد.
«مینا آندیاپان»(Meena Andiappan) دانشیار منابع انسانی و مدیریت در «دانشگاه مکمستر»(McMaster) و نویسنده این مقاله میگوید: با «هوش مصنوعی» باید مانند کارمندی رفتار شود که تصمیمات مهمی میگیرد. این تصمیمگیریها به نظارت و دستورالعملهای اخلاقی نیاز دارد. در غیر این صورت، ما به جای بهبود تفکر ناقص، آن را در معرض خطر خودکارسازی قرار میدهیم.
این یافتهها که در مجله Manufacturing & Service Operations Management منتشر شده است.
لینک کوتاه:
https://www.siasatvabazaryabi.ir/Fa/News/775999/