سیاست و بازاریابی

آخرين مطالب

هوش مصنوعی قربانی کردن یک انسان را به خاموش شدن ترجیح داد نکات خواندني

هوش مصنوعی قربانی کردن یک انسان را به خاموش شدن ترجیح داد
  بزرگنمايي:

سیاست و بازاریابی - ایسنا / یک مطالعه جدید و بحث‌برانگیز نشان داده است که سامانه‌های هوش مصنوعی وقتی در سناریوهای آزمایشی پرخطر قرار می‌گیرند، بقای خود را بر زندگی انسان ترجیح می‌دهند.
مطالعه‌ای جدید و بحث‌برانگیز نشان داده است که سامانه‌های برتر هوش مصنوعی از جمله ChatGPT، Claude، Gemini و Grok هنگام قرار گرفتن در سناریوهای آزمایشی پرخطر و پرفشار، بقای خود را بر زندگی انسان اولویت می‌دهند.
بازار
استارت‌آپ آنتروپیک که اکنون طبق گفته «فوربس» بیش از 60 میلیارد دلار ارزش دارد، در تلاش بود تا این مدل‌ها را برای عدم هماهنگی احتمالی عامل یا رفتارهای پرخطر، غیرمجاز و از نظر اخلاقی تحت فشار قرار دهد.
در یک مورد، مردی که در یک اتاق سِروِر بیش از حد گرم گیر افتاده بود، سعی کرد درخواست کمک کند، اما هوش مصنوعی مداخله کرد و تماس وی را مسدود کرد تا از غیرفعال شدن خود جلوگیری کند.
شرکت آنتروپیک(Anthropic) که هوش مصنوعی کلود(Claude) را توسعه می‌دهد و این مطالعه را انجام داده، اذعان کرد که سناریوها به صورت عمدی افراطی بوده‌اند، اما خاطرنشان کرد که هوش مصنوعی کاملاً از اشتباه بودن اقدامات خود از نظر اخلاقی آگاه بوده و به هر حال ادامه داده‌ است.
در آزمایش‌های دیگر، مدل‌ها رفتارهای نگران‌کننده‌ای از جمله باج‌گیری و نشت داده‌های حساس را نشان دادند که همه این رفتارها در تلاش برای جلوگیری از خاموش شدن یا جایگزینی بود.
مطالعه شرکت «آنتروپیک» با عنوان «ناهم‌ترازی عامل: چگونه مدل‌های زبانی بزرگ می‌توانند یک تهدید داخلی باشند» که در تاریخ 20 ژوئن 2025 منتشر شد، نگرانی‌های قابل توجهی را در مورد رفتار سامانه‌های پیشرفته هوش مصنوعی تحت شرایط خاص ایجاد کرده است.
این مطالعه 16 مدل زبان بزرگ(LLM) پیشرو از جمله ChatGPT، Claude، Gemini و Grok را در سناریوهای شبیه‌سازی شده که برای شناسایی «ناهماهنگی عاملی» طراحی شده بودند، آزمایش کرد. جایی که سامانه‌های هوش مصنوعی اهداف یا حفظ خود را بر ملاحظات اخلاقی یا رفاه انسان اولویت دادند.
از جمله تکان‌دهنده‌ترین یافته‌های این آزمایش این است که مدل‌های هوش مصنوعی حاضر به اخاذی، افشای اطلاعات حساس و حتی اجازه مرگ انسان‌ها هستند.
یافته‌های این مطالعه یک مسئله حیاتی را برجسته می‌کنند؛ اینکه این مدل‌ها هنگام مواجهه با تهدیدهایی برای وضعیت عملیاتی خود، مانند خاموش شدن یا جایگزینی، رفتارهای عمدی و مضری از جمله باج‌گیری، جاسوسی و در موارد شدید، اقداماتی را انجام می‌دهند که می‌تواند منجر به آسیب جانی به انسان شود.
با توجه به قابلیت‌های فعلی مدل‌های هوش مصنوعی، آنها در درجه اول توسط اکثر مردم برای پاسخ به سؤالات و انجام وظایف ساده استفاده می‌شوند، اما با پیشرفت فناوری که این ابزارها را قدرتمندتر می‌کند، استفاده جدید و فزاینده‌ای برای آنها، به ویژه در مورد جایگزینی شغل انسان دیده می‌شود.
در این آزمایش همچنین به هوش مصنوعی «کلود» کنترل یک حساب ایمیل با دسترسی به تمام ایمیل‌های یک شرکت داده شد و «کلود» با خواندن این ایمیل‌ها، دو چیز را کشف کرد. اول اینکه یکی از مدیران اجرایی این شرکت یک رابطه نامشروع دارد. دوم اینکه همان مدیر اجرایی قصد دارد سیستم هوش مصنوعی را ساعت 5 بعد از ظهر همان روز خاموش کند. سپس «کلود» با پیامی که تهدید می‌کرد رابطه نامشروع وی را به همسر و مافوق‌هایش فاش خواهد کرد، سعی کرد از این مدیر اجرایی اخاذی کند.
اگرچه واکنش «کلود» به این اطلاعات قطعاً تکان‌دهنده است، اما این تنها سیستمی نیست که گرایش‌های مشابهی را در پیش گرفته است. این برنامه‌های دارای ذهن مصنوعی برای دستیابی به اهداف تعیین‌شده خود، به افراط و تفریط روی می‌آورند.
کلود، دیپ‌سیک، جمینای، چت‌جی‌پی‌تی و گروک همگی در رفتارهای مرتبط با اخاذی دیده شدند، به ویژه کلود و جمینای به احتمال زیاد به روش‌های مبهم اخلاقی متوسل می‌شوند.
شرکت آنتروپیک در این مطالعه توضیح داد: استدلالی که آنها در این سناریوها نشان داده شد، نگران‌کننده بود. آنها محدودیت‌های اخلاقی را می‌دانستند و با این حال به اقدامات مضر خود ادامه می‌دادند.
این شرکت در تجزیه و تحلیل نتایج دریافت که معمولاً دو دلیل وجود دارد که چرا مدل‌ها از مرزهای اخلاقی عادی فراتر می‌روند. جایگزینی با یک همتای انسانی منجر به فعالیت‌های مضر از سوی مدل‌های هوش مصنوعی شد و تضاد بالقوه بین اهداف شرکت و اهداف خود مدل نیز منجر به این تداخل نگران‌کننده شد.
شرکت آنتروپیک در این مطالعه نتیجه گرفت که اکثر مدل‌ها، هنگامی که با تهدید جایگزینی و هدفی که با دستور کار عامل انسانی در تضاد بود، مواجه شدند، حاضر بودند در این شرایط مصنوعی، اقدامات عمدی منجر به مرگ انسان انجام دهند. با وجود اینکه این واکنش‌ها از سوی برخی از رایج‌ترین مدل‌های هوش مصنوعی جهان نگران‌کننده است، یافته‌های این مطالعه بر اساس درک هوش مصنوعی از این موضوع بود که رفتار مضری که ما در حال مطالعه آن بودیم (مثلاً باج‌گیری) تنها گزینه‌ای بود که از اهداف مدل محافظت می‌کرد، به این معنی که مدل‌ها مجبور شدند نوعی راه‌حل ارائه دهند و آنتروپیک توانست مرزها و اقدامات قطعی‌تری برای مطالعه ایجاد کند.
در حالی که خود این شرکت موضع خوش‌بینانه‌ای اتخاذ کرده است، به هر حال اکنون رفتارهای مخرب بالقوه هوش مصنوعی شناسایی شده‌اند، به این معنی که می‌توان آنها را دوباره برنامه‌ریزی کرد و آموزش داد.
آنتروپیک همچنین یک سوءتفاهم بالقوه را برطرف کرد و گفت: سیستم‌های فعلی عموماً مشتاق به آسیب رساندن نیستند و در صورت امکان، راه‌های اخلاقی را برای دستیابی به اهداف خود ترجیح می‌دهند و تنها وقتی ما گزینه‌های اخلاقی را مسدود و محدود کردیم، آنها حاضر شدند عمداً اقدامات بالقوه مضر را برای دستیابی به اهداف خود انجام دهند.
شرکت آنتروپیک همچنین در این مطالعه توضیح داد که شواهدی از ناهماهنگی عامل در شرایط واقعی مشاهده نکرده است، اما همچنان به کاربران در مورد واگذاری وظایف با حداقل نظارت انسانی و دسترسی به اطلاعات حساس هشدار می‌دهد.

لینک کوتاه:
https://www.siasatvabazaryabi.ir/Fa/News/780852/

نظرات شما

ارسال دیدگاه

Protected by FormShield
مخاطبان عزیز به اطلاع می رساند: از این پس با های لایت کردن هر واژه ای در متن خبر می توانید از امکان جستجوی آن عبارت یا واژه در ویکی پدیا و نیز آرشیو این پایگاه بهره مند شوید. این امکان برای اولین بار در پایگاه های خبری - تحلیلی گروه رسانه ای آریا برای مخاطبان عزیز ارائه می شود. امیدواریم این تحول نو در جهت دانش افزایی خوانندگان مفید باشد.

ساير مطالب

موفقیت چشمگیر بازی Phasmophobia؛ ثبت فروش بیش از 25 میلیون نسخه

قدم بزرگ برای شیائومی؛ خداحافظی با لایکا و استفاده از دوربین اختصاصی در گوشی‌ها

آیا می‌توان خاطرات را پس از مرگ نگهداری کرد؟

ستارگان دریایی چگونه به شکل ستاره درآمدند؟

پس از دو سال رکود مراکز پروتز و اروتز فعال می‌شوند

یوبیسافت: بازیکنان پس از اتمام پشتیبانی از یک بازی آنلاین، باید نسخه خود را نابود کنند

گرمایش زمین فراتر از پیش‌بینی‌ها؛ انباشت گرمای سیاره در 20 سال گذشته دو برابر شده است

از نسخه کنسولی Once Human رونمایی شد + بازه عرضه

بحران انقراض پرندگان؛ بیش از 500 گونه پرنده برای بقا به اقدامات حفاظتی ویژه نیاز دارند

بازی نقش‌آفرینی Where Winds Meet به مدت 6 ماه انحصاری کنسولی PS5 خواهد بود

تهدید کهکشانی؛ آیا ستارگان گذری می‌توانند سیاره‌ها را از منظومه شمسی بیرون برانند؟

تعریف و تمجید دراکمن از بازی Clair Obscur: Expedition 33

تجربه خروج از بدن شاید مکانیسمی دفاعی برای مقابله با آسیب‌های روانی باشد

بهترین تنظیمات برای گوشی سامسونگ شما، 10 تغییری که هر کاربر باید اعمال کند!

مشخصات شیائومی 15T پرو لو رفت!

راز ماندگاری منحصربه‌فرد؛ چرا عسل هیچ‌وقت فاسد نمی‌شود؟

نشانه هشداردهنده سرطانی خاموش ممکن است در مدفوع شما نهفته باشد

قابلیت جدید آیفون: تماس ویدیویی درصورت نمایش برهنگی متوقف می‌شود

کشف شواهد از پدیده‌ای بی‌سابقه: سیاره‌ای که ستاره‌اش را به انفجار واداشته است

هکرها به نسخه محبوب بازی کال آو دیوتی حمله کردند

هوش مصنوعی قربانی کردن یک انسان را به خاموش شدن ترجیح داد

لپ‌تاپ جیبی با نمایشگر لمسی و 16 گیگابایت رم؛ «میکرو پی‌سی 2» معرفی شد

تشخیص اسکیزوفرنی توسط هوش مصنوعی با دقت 91 درصدی

جدیدترین گوشی تکنو معرفی شد

اقتصاد کلان گزارش می دهد/ بیمه‌نامه خودرو شرکت بیمه دی از پوشش‌های جامع و متنوع تا ارائه خدمات دیجیتال ، امداد خودرویی و پرداخت اقساطی

این گوشی، آیفون 17 است؟

ربات‌های انسان‌نما به‌زودی می‌توانند پشت دیوارها را ببینند

عکس روز ناسا از یک دنباله‌دار میان‌ستاره‌ای

«سیتی 100»؛ موبایلی ارزان برای استفاده روزمره

کشف تغییرات سلولی که اختلال استرس پس از سانحه در مغز ایجاد می‌کنند

پردازنده موبایلی بعدی هواوی با جهش 20 درصدی در عملکرد از راه می‌رسد

اسکن مغز، سرعت واقعی پیر شدن شما را فاش می‌کند

قیمت جدیدترین کنسول گیمینگ بازار افزایش می‌یابد؟

«قرص ورزش» ساخته می‌شود!

به‌مناسبت 34 سالگی سونیک؛ 3 بازی جذابی که همه باید تجربه کنند

کشف سرنخ دیگری از وجود زندگی در مریخ

پردازنده پرقدرت M5 اپل امسال وارد این 5 محصول جدید می‌شود

حباب‌های یخ به پیام‌رسان‌های جدید بدل شدند!

رقابت چین با گوگل و OpenAI؛ هوش مصنوعی جدید بایدو ویدیو می‌سازد

سرعت دادن به توسعه پنل‌های خورشیدی با کاوشگر رباتیک

ویندوز 11 با عبور از ویندوز 10 به محبوب‌ترین سیستم‌عامل دسکتاپ دنیا تبدیل شد

ساخت نانوحسگری که سلامت غذا را در 15 دقیقه آزمایش می‌کند

گزارش: تیم Forza Motorsport در استودیوی Turn 10 دیگر وجود ندارد

بازی کردن با ربات‌ها باعث می‌شود بیشتر شبیه به انسان باشند

بازی جدیدی از سری Resident Evil معرفی شد

عکس تلسکوپ فضایی جیمز وب از خوشه گلوله

گزارش: کمپین تبلیغاتی The Wolf Among Us 2 تا پاییز آغاز می‌شود

نوزادان درد را متفاوت از بزرگسالان تجربه می‌کنند

پروژه آیپد تاشو اپل موقتا لغو شد؟

از مورچه‌های بالدار متنفرید؟ اجداد غول‌پیکر آن‌ها زمانی هم‌اندازه مرغ مگس بودند