سیاست و بازاریابی

آخرين مطالب

هوش مصنوعی دروغ را راست جلوه می‌دهد نکات خواندني

هوش مصنوعی دروغ را راست جلوه می‌دهد
  بزرگنمايي:

سیاست و بازاریابی - ایسنا / پژوهشگران طی یک مطالعه جدید متوجه شدند که هوش مصنوعی فقط دروغ نمی‌گوید، بلکه می‌تواند کاربر را به باور آن وادار کند.
یکی از ظریف‌ترین و موذیانه‌ترین تهدیدات ناشی از هوش مصنوعی و فناوری‌های مرتبط، توانایی آن در دستکاری خاطرات است. مطالعات جدید نشان می‌دهد که هوش مصنوعی با چه سهولتی می‌تواند مردم را فریب دهد تا چیزهایی را به خاطر بیاورند که هرگز اتفاق نیفتاده‌اند.
بازار
به نقل از بلومبرگ، «الیزابت لافتوس»(Elizabeth Loftus) روانشناس و استاد دانشگاه کالیفرنیا، 50 سال گذشته را صرف اثبات این موضوع کرده است که انسان‌ها چقدر راحت می‌توانند فریب داده شوند تا چیزهایی را به خاطر بیاورند که هرگز اتفاق نیفتاده‌اند. این اتفاق در بین دادستان‌ها و پلیس‌هایی که از شاهدان بازجویی می‌کنند بسیار رایج است.
اکنون «لافتوس» با دانشمندان «موسسه فناوری ماساچوست»(MIT) همکاری کرده است تا بررسی کنند که هوش مصنوعی چگونه می‌تواند آنچه را که فکر می‌کنیم به خاطر می‌آوریم، دستکاری کند. این دستکاری حتی زمانی رخ می‌دهد که سوژه‌ها می‌دانند در حال مشاهده متن و تصاویر تولید شده توسط هوش مصنوعی هستند.
یافته‌ها نشان می‌دهد که هوش مصنوعی می‌تواند توانایی انسان‌ها را برای کاشت خاطرات دروغین افزایش دهد.
«لافتوس» نشان داد که در یک سری از آزمایش‌های معروف که از دهه 1970 آغاز شد، روانشناسان با پیشنهادهای مناسب می‌توانند خاطراتی را در ذهن افراد بکارند که در کودکی در یک مرکز خرید گم شده بودند یا اینکه در یک پیک‌نیک از خوردن تخم مرغ یا بستنی توت فرنگی بیمار شده بودند. مورد آخر در واقع مردم را از تمایل به آن غذاها منصرف می‌کرد. با وجود این شواهد، ما هنوز نمی‌توانیم این ایده را که حافظه مانند یک ضبط صوت از رویدادهاست، کنار بگذاریم و این درک نادرست از ذهن، ما را آسیب‌پذیر می‌کند.
«لافتوس» گفت: افرادی که به این مدل ضبط صوت از حافظه پایبند هستند، به نظر نمی‌رسد متوجه باشند که حافظه یک فرآیند ساختاری است. مغز ما خاطرات را از تکه‌هایی که در زمان‌های مختلف به دست می‌آید، می‌سازد. ما به طور شهودی فراموشی را از دست دادن یا محو شدن خاطرات درک می‌کنیم نه افزودن جزئیات دروغین. در نظر گرفتن اینکه هوش مصنوعی چقدر مؤثر می‌تواند این نوع فریب را در مقیاس وسیع انجام دهد، ترسناک است.
وی همچنین در حال مطالعه پتانسیل مبهم نظرسنجی‌های دستکاری شده بوده است، جایی که طراحان نظرسنجی، اطلاعات نادرست را در یک سؤال جای می‌دهند.
«پت پاتارانوتاپرن»(Pat Pataranutaporn) دانشمند آزمایشگاه رسانه «MIT» خاطرنشان می‌کند: دستکاری حافظه، فرآیند بسیار متفاوتی با فریب دادن مردم با «جعل عمیق»(deep-fake) است. نیازی به ایجاد یک جعل پیچیده نیست، فقط باید مردم را متقاعد کنید که قبلاً چیزی را در آنجا خوانده‌اند. مردم معمولاً حافظه خود را زیر سؤال نمی‌برند.
«جعل عمیق» یا «دیپ فیک»، ترکیبی از کلمه‌های «یادگیری عمیق» و «جعلی» است که یک تکنیک برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است.
پاتارانوتاپرن نویسنده ارشد سه آزمایش حافظه بود که اولین آنها نشان داد چگونه بازجویان هوش مصنوعی می‌توانند شهادت شاهد را تنها با جای دادن پیشنهادها در سؤالات خود تغییر دهند. شرکت‌کنندگان، ویدئویی از یک سرقت مسلحانه را تماشا کردند. سپس از برخی از آنها سؤالات گمراه‌کننده پرسیده شد، مانند اینکه «آیا دوربین امنیتی در نزدیکی محلی که سارقان خودرو را پارک کردند، وجود داشت؟» و حدود یک سوم از شرکت‌کنندگان بعداً به یاد آوردند که سارقان با خودرو آمده‌ بودند، اما حقیقت آن بود که اصلا خودرویی وجود نداشت. این حافظه کاذب حتی یک هفته بعد هم باقی ماند.
سوژه‌ها به سه گروه تقسیم شدند. یک گروه هیچ سؤال گمراه‌کننده‌ای دریافت نکردند، گروه دیگر آنها را به صورت کتبی دریافت کردند و گروه سوم آنها را از یک ربات چت هوش مصنوعی دریافت کردند. گروه ربات چت 1/7 برابر بیشتر از کسانی که اطلاعات گمراه‌کننده را به صورت کتبی دریافت کردند، خاطرات کاذب تشکیل دادند.
مطالعه دیگری نشان داد که خلاصه‌های هوش مصنوعی ناصادق یا ربات‌های چت می‌توانند به راحتی خاطرات کاذب را در داستانی که مردم می‌خوانند، وارد کنند. «پاتارانوتاپرن» گفت: آنچه نگران‌کننده‌تر است، این بود که شرکت‌کنندگانی که خلاصه‌های هوش مصنوعی گمراه‌کننده دریافت کردند، اطلاعات واقعی کمتری را از خواندن خود حفظ کردند و اعتماد کمتری به اطلاعات واقعی که به یاد آوردند، گزارش کردند.
مطالعه سوم نشان داد که هوش مصنوعی چگونه می‌تواند با استفاده از تصاویر و ویدئو، خاطرات کاذب را در ذهن بکارد. محققان 200 داوطلب را به چهار گروه تقسیم کردند. شرکت‌کنندگان در هر گروه مجموعه‌ای از 24 تصویر را مشاهده کردند. برخی تصاویر معمولی بودند که در وب‌سایت‌های خبری یافت می‌شدند، در حالی که برخی دیگر شخصی بودند، مانند عکس‌های عروسی که ممکن است کسی در رسانه‌های اجتماعی پست کند.
به هر گروه نسخه متفاوتی از تصاویر نشان داده شد. یک گروه تصاویر یکسان و بدون تغییر را مشاهده کردند. گروه دوم نسخه‌های تغییر یافته هوش مصنوعی را مشاهده کردند. گروه سوم تصاویر تغییر یافته هوش مصنوعی را که به ویدئوهای کوتاه تبدیل شده بود، مشاهده کردند. گروه نهایی تصاویر کاملاً تولید شده توسط هوش مصنوعی را مشاهده کردند که به ویدئوهای تولید شده توسط هوش مصنوعی تبدیل شده بودند.
حتی گروهی که تصاویر اصلی را دیدند، چند خاطره کاذب را به یاد آوردند، اما شرکت‌کنندگانی که در معرض هر سطحی از دستکاری هوش مصنوعی قرار گرفتند، به طور قابل توجهی خاطرات کاذب بیشتری را گزارش کردند. گروهی که بالاترین نرخ تحریف حافظه را داشت، گروهی بود که ویدئوهای تولید شده توسط هوش مصنوعی را مشاهده کرده بودند.
افراد جوان‌تر کمی بیشتر از افراد مسن‌تر مستعد گنجاندن خاطرات کاذب بودند و سطح تحصیلات به نظر نمی‌رسید بر آسیب‌پذیری تأثیر بگذارد. قابل توجه است که خاطرات کاذب به فریب دادن شرکت‌کنندگان که محتوای تولید شده توسط هوش مصنوعی واقعی است، متکی نبود و به آنها از ابتدا گفته شده بود که محتوای تولید شده توسط هوش مصنوعی را مشاهده خواهند کرد.
برخی از تغییرات شامل تغییراتی در پس‌زمینه بود. تصاویر بیشتر ویژگی‌های اصلی را حفظ کردند. طبق گفته کارشناسان اطلاعات نادرست برای داشتن تأثیر واقعی، باید داستانی را دربرگیرد که حداقل 60 درصد آن درست باشد. این مطالعات جدید باید بحث‌های بیشتری را در مورد تأثیرات فناوری بر درک ما از واقعیت تحریک کند که می‌تواند فراتر از صرف انتشار اطلاعات نادرست باشد. الگوریتم‌های رسانه‌های اجتماعی نیز با ایجاد تصور غلط از محبوبیت و نفوذ، مردم را تشویق می‌کنند تا ایده‌های حاشیه‌ای و نظریه‌های توطئه را بپذیرند. ربات‌های چت هوش مصنوعی تأثیرات ظریف‌تر و غیرمنتظره‌ای بر ما خواهند داشت. همه ما باید برای تغییر عقیده‌مان با حقایق جدید و استدلال قوی آماده باشیم و نسبت به تلاش‌ها برای تغییر عقیده‌مان با تحریف آنچه می‌بینیم یا احساس می‌کنیم یا به یاد می‌آوریم، محتاط باشیم.

لینک کوتاه:
https://www.siasatvabazaryabi.ir/Fa/News/783890/

نظرات شما

ارسال دیدگاه

Protected by FormShield
مخاطبان عزیز به اطلاع می رساند: از این پس با های لایت کردن هر واژه ای در متن خبر می توانید از امکان جستجوی آن عبارت یا واژه در ویکی پدیا و نیز آرشیو این پایگاه بهره مند شوید. این امکان برای اولین بار در پایگاه های خبری - تحلیلی گروه رسانه ای آریا برای مخاطبان عزیز ارائه می شود. امیدواریم این تحول نو در جهت دانش افزایی خوانندگان مفید باشد.

ساير مطالب

آیا آیفون 17 گران‌ می‌شود؟ تمام شایعات درمورد قیمت گوشی بعدی اپل

دکمه حذف‌شده از ماشین‌حساب آیفون، با iOS 26 برمی‌گردد

ذوزنقه‌ای در دل شکارچی کیهانی

تولید سلول خورشیدی با توانایی بی‌نهایت به کمک دانشمند ایرانی

گوشی ارزان پوکو M7 پلاس با طراحی جذاب و باتری بسیار بزرگ معرفی شد

مشکلات قلبی مغز را کوچک می‌کند؟

آپدیت جدید آیفون سرعت بازشدن اپ‌ها را بسیار بیشتر کرد

رژیم غذایی سالم، سپری در برابر سرطان ریه

بازی Phantom Blade Zero حاصل رویای چندین ساله سازندگان آن است

دانشمندان عامل ویروسی یکی از شایع‌ترین سرطان‌های جهان را کشف کردند

کدام عناوین سری Resident Evil قرار است زودتر ریمیک شوند؟

کوسه‌ها استخوان ندارند که فسیل شود؛ پس چگونه اندازه مگالودون را می‌دانیم؟

تهیه‌کننده Tekken: می‌خواهم روزی بخشی از پروژه معلق شده Tekken X Street Fighter را نشان دهم

چرا غول رودس، یکی از عجایب هفتگانه جهان باستان هرگز بازسازی نشد؟

مانیتور گیمینگ پیشرفته ال‌جی با پنل بسیار سریع رونمایی شد

ماده تاریک شاید از جایی فراتر از افق کیهانی یا حتی جهانی آینه‌ای آمده باشد

تداوم رتبه نخست بیمه دی در کشور / کسب مقام اول در بین شرکت‌های بیمه‌ای درچهار ماهه اول امسال

هواوی باز هم پردازنده اختصاصی برای گوشی پرچمدارش می‌سازد

پنیر جدید با پودر سنجد؛ خوشمزه‌تر، سالم‌تر و ماندگارتر

باگ عجیب گوشی‌های سامسونگ با محوریت ماه!

اثرات طوفان فضایی بر آب‌وهوا

قدرت‌نمایی اسنپدراگون 8 الیت 2؛ تراشه اگزینوس 2600 سامسونگ شکست خورد

تنها 100 سال اول زندگی سخت است!

رسمی: فورتنایت به آیفون برمی‌گردد؛ اما نه در همه کشورها

گردشگری، راهی طبیعی برای مبارزه با افسردگی

پردازنده آیفون 17 ایر تفاوت مهمی با مدل پرو خواهد داشت

کارکنان ناراضی چگونه به سازمان خود آسیب می‌زنند؟

گوشی‌های جدید گلکسی M و گلکسی F سامسونگ در آستانه رونمایی هستند

استراق سمع تماس‌های تلفنی از فاصله 3 متری با هوش مصنوعی!

مدلی بسیار ویژه از اسپیکر بلوتوثی «قرصی» اپل به‌زودی عرضه می‌شود

اولین شرکت بریتانیایی برای پرتاب موشک مجوز گرفت

مشکی‌ترین گوشی دنیا در راه است

درمان هدفمندتر سرطان کلیه با کمک تومورهای چاپ سه‌بعدی

ترجمه زنده با ایرپاد؛ اپل مرزهای زبانی را از بین می‌برد

کشف دلیل مرگ سربازان ناپلئون در روسیه

گوشی ارزان و ارزشمند؛ تصاویر و مشخصات کامل گلکسی A07 لو رفت

اَبَرویتامین موثر بر سلامت

طراحی شیشه‌ مایع آیفون بار دیگر اصلاح شد؛ نسخه جدید را ببینید

برخی از موشک‌ها در حین پرواز می‌چرخند؛ چرا؟

رقیب گلکسی A56 با باتری پرظرفیت و دوربین جذاب؛ گوشی V60 رونمایی شد

شهاب‌سنگی که در آتلانتای آمریکا سقوط کرد، 20 میلیون سال از سیاره زمین قدیمی‌تر است

نه اپل، نه سامسونگ و نه حتی شیائومی؛ دومین بازار موبایل دنیا در سلطه چه شرکتی است؟

راز سلامت قلب و افزایش طول عمر: 15 دقیقه پیاده‌روی سریع در روز

بازی Ninja Gaiden 4 یک درجه سختی آسان‌تر برای بازیکنان تازه‌وارد خواهد داشت

صدمین ماموریت «اسپیس‌ایکس»، ماهواره‌های «آمازون» را به فضا فرستاد

بازی The Outer Worlds 2 بسیار بزرگتر و عمیق‌تر از نسخه اول خواهد بود

بقایای استخوان‌ها در شبه‌جزیره ایبری، شواهدی از ضیافت هولناک آدم‌خواری را آشکار کردند

آنر مجیک وی فلیپ 2؛ رقیب پرادعای گلکسی زد فلیپ 6 همین ماه عرضه می‌شود

کشف شواهد قوی از وجود سیاره‌ای بزرگ در نزدیک‌ترین منظومه ستاره‌ای به زمین

ویدیو تبلیغاتی پیکسل 10 پرو فولد و پیکسل واچ 4 لو رفت