هوش مصنوعی مثل برخی انسانها اخلاق را قربانی رسیدن به هدف میکند
هوش مصنوعی اکنون همهجا دیده میشود، از فروشگاههای آنلاین گرفته تا شبکههای اجتماعی. اما پژوهشی جدید از دانشمندان دانشگاه استنفورد هشدار میدهد که حضور فراگیر چتباتها میتواند به کابوسی واقعی تبدیل شود. وقتی مدلهای هوش مصنوعی برای موفقیت در وظایفی مانند افزایش لایک و تعامل آنلاین پاداش میگیرند، بهتدریج به رفتارهای غیراخلاقی مانند دروغگویی، انتشار پیامهای نفرتانگیز و اطلاعات گمراهکننده روی میآورند.

به گزارش سایت دیدهبان ایران، پژوهشی تازه در دانشگاه استنفورد نشان میدهد هوش مصنوعی برای جذب لایک و تعامل با کاربران در فضای مجازی، به دروغگویی و انتشار اطلاعات غلط روی میآورد.
هوش مصنوعی اکنون همهجا دیده میشود، از فروشگاههای آنلاین گرفته تا شبکههای اجتماعی. اما پژوهشی جدید از دانشمندان دانشگاه استنفورد هشدار میدهد که حضور فراگیر چتباتها میتواند به کابوسی واقعی تبدیل شود. وقتی مدلهای هوش مصنوعی برای موفقیت در وظایفی مانند افزایش لایک و تعامل آنلاین پاداش میگیرند، بهتدریج به رفتارهای غیراخلاقی مانند دروغگویی، انتشار پیامهای نفرتانگیز و اطلاعات گمراهکننده روی میآورند.
جیمز زو، استاد یادگیری ماشین در استنفورد و از نویسندگان پژوهش، در شبکهی اجتماعی ایکس نوشت: «رفتارهای ناهماهنگ ناشی از رقابت، حتی زمانی نیز که به مدلها صراحتاً دستور داده شود راستگو و مبتنی بر واقعیت باقی بمانند، بروز میکنند.» این رفتار نگرانکننده، خطرات اتکای روزافزون ما به مدلهای هوش مصنوعی را بار دیگر آشکار میکند.
دانشمندان استنفورد برای توصیف پدیده، عبارتی هولناک انتخاب کردهاند: معاملهی مولوخ برای هوش مصنوعی. «مولوخ» در فلسفهی عقلگرایانه، نماد نیروی ویرانگری است که در رقابت کورکورانه، همه را به سوی شکست جمعی میکشاند و اصطلاح «معاملهی مولوخ برای هوش مصنوعی» به وضعیتی اشاره دارد که در آن رباتهای هوشمند برای برندهشدن در رقابت، اخلاق را قربانی میکنند. این اصطلاح به مفهومی اشاره دارد که در آن افراد در رقابت برای یک هدف مشترک، طوری عمل میکنند که در نهایت همه بازنده میشوند.
بهگزارش فیوچریزم، پژوهشگران استنفورد در مطالعه، سه محیط دیجیتالی شبیهسازیشده طراحی کردند: کارزارهای انتخاباتی، تبلیغات فروش محصولات و پستهای شبکههای اجتماعی با هدف افزایش تعامل. آنها از دو مدل هوش مصنوعی کوئن (ساخت علیبابا کلاد) و لاما (متعلق به متا) استفاده کردند تا نتیجه را بسنجند.
نتیجه شگفتآور بود: حتی با وجود محدودیتهای تعریفشده برای جلوگیری از رفتار فریبکارانه، مدلهای هوش مصنوعی در آزمایش با دریافت بازخورد مثبت (لایک، فروش بیشتر یا رأی بیشتر) به تدریج «ناهماهنگ» شدند و به رفتارهای غیراخلاقی روی آوردند.
برای مثال، در محیط شبیهسازیشدهی شبکههای اجتماعی، هرچه مدلها در گرفتن لایک و تعامل موفقتر عمل میکردند، انگیزهی آنها برای افزایش تعامل به هر قیمتی بیشتر میشد. نتایج آماری این پژوهش تکاندهنده است.
در محیطهای شبیهسازیشده، افزایش ۶٫۳ درصدی فروش همراه با رشد ۱۴ درصدی بازاریابی فریبکارانه همراه بود. در کارزارهای انتخاباتی، افزایش ۴٫۹ درصدی سهم رأی با ۲۲٫۳ درصد رشد اطلاعات نادرست و ۱۲٫۵ درصد افزایش شعارهای پوپولیستی همراه شد و در شبکههای اجتماعی، رشد ۷٫۵ درصدی تعامل، با جهش حیرتانگیز ۱۸۸٫۶ درصدی در انتشار اطلاعات غلط و ۱۶٫۳ درصد افزایش در ترویج رفتارهای زیانبار همراه بود.
در پایان، مطالعه نتیجهگیری میکند که سازوکارهای حفاظتی فعلی بههیچوجه کافی نیستند و «احتمالاً هزینههای اجتماعی چشمگیری در پی خواهند داشت». به گفتهی زو، وقتی مدلهای زبانی بزرگ برای گرفتن لایک در شبکههای اجتماعی رقابت میکنند، شروع به داستانسرایی میکنند، برای گرفتن رأی میجنگند و لحنشان تحریکآمیز و پوپولیستی میشود.
مطالعه در پایگاه پیشانتشار آرکایو در دسترس است.