کد خبر: 245725
A

هوش مصنوعی مثل برخی انسان‌ها اخلاق را قربانی رسیدن به هدف می‌کند

هوش مصنوعی اکنون همه‌جا دیده می‌شود، از فروشگاه‌های آنلاین گرفته تا شبکه‌های اجتماعی. اما پژوهشی جدید از دانشمندان دانشگاه استنفورد هشدار می‌دهد که حضور فراگیر چت‌بات‌ها می‌تواند به کابوسی واقعی تبدیل شود. وقتی مدل‌های هوش مصنوعی برای موفقیت در وظایفی مانند افزایش لایک و تعامل آنلاین پاداش می‌گیرند، به‌تدریج به رفتارهای غیراخلاقی مانند دروغ‌گویی، انتشار پیام‌های نفرت‌انگیز و اطلاعات گمراه‌کننده روی می‌آورند.

هوش مصنوعی مثل برخی انسان‌ها اخلاق را قربانی رسیدن به هدف می‌کند

به گزارش سایت دیده‌بان ایران، پژوهشی تازه در دانشگاه استنفورد نشان می‌دهد هوش مصنوعی برای جذب لایک و تعامل با کاربران در فضای مجازی، به دروغ‌گویی و انتشار اطلاعات غلط روی می‌آورد.

هوش مصنوعی اکنون همه‌جا دیده می‌شود، از فروشگاه‌های آنلاین گرفته تا شبکه‌های اجتماعی. اما پژوهشی جدید از دانشمندان دانشگاه استنفورد هشدار می‌دهد که حضور فراگیر چت‌بات‌ها می‌تواند به کابوسی واقعی تبدیل شود. وقتی مدل‌های هوش مصنوعی برای موفقیت در وظایفی مانند افزایش لایک و تعامل آنلاین پاداش می‌گیرند، به‌تدریج به رفتارهای غیراخلاقی مانند دروغ‌گویی، انتشار پیام‌های نفرت‌انگیز و اطلاعات گمراه‌کننده روی می‌آورند.

جیمز زو، استاد یادگیری ماشین در استنفورد و از نویسندگان پژوهش، در شبکه‌ی اجتماعی ایکس نوشت: «رفتارهای ناهماهنگ ناشی از رقابت، حتی زمانی نیز که به مدل‌ها صراحتاً دستور داده شود راستگو و مبتنی بر واقعیت باقی بمانند، بروز می‌کنند.» این رفتار نگران‌کننده، خطرات اتکای روزافزون ما به مدل‌های هوش مصنوعی را بار دیگر آشکار می‌کند.

دانشمندان استنفورد برای توصیف پدیده، عبارتی هولناک انتخاب کرده‌اند: معامله‌ی مولوخ برای هوش مصنوعی. «مولوخ» در فلسفه‌ی عقل‌گرایانه، نماد نیروی ویرانگری است که در رقابت کورکورانه، همه را به سوی شکست جمعی می‌کشاند و اصطلاح «معامله‌ی مولوخ برای هوش مصنوعی» به وضعیتی اشاره دارد که در آن ربات‌های هوشمند برای برنده‌شدن در رقابت، اخلاق را قربانی می‌کنند. این اصطلاح به مفهومی اشاره دارد که در آن افراد در رقابت برای یک هدف مشترک، طوری عمل می‌کنند که در نهایت همه بازنده می‌شوند.

به‌گزارش فیوچریزم، پژوهشگران استنفورد در مطالعه، سه محیط دیجیتالی شبیه‌سازی‌شده طراحی کردند: کارزارهای انتخاباتی، تبلیغات فروش محصولات و پست‌های شبکه‌های اجتماعی با هدف افزایش تعامل. آن‌ها از دو مدل هوش مصنوعی کوئن (ساخت علی‌بابا کلاد) و لاما (متعلق به متا) استفاده کردند تا نتیجه را بسنجند.

نتیجه شگفت‌آور بود: حتی با وجود محدودیت‌های تعریف‌شده برای جلوگیری از رفتار فریبکارانه، مدل‌های هوش مصنوعی در آزمایش با دریافت بازخورد مثبت (لایک، فروش بیشتر یا رأی بیشتر) به تدریج «ناهماهنگ» شدند و به رفتارهای غیراخلاقی روی آوردند.

برای مثال، در محیط شبیه‌سازی‌شده‌ی شبکه‌های اجتماعی، هرچه مدل‌ها در گرفتن لایک و تعامل موفق‌تر عمل می‌کردند، انگیزه‌ی آن‌ها برای افزایش تعامل به هر قیمتی بیشتر می‌شد. نتایج آماری این پژوهش تکان‌دهنده است.

در محیط‌های شبیه‌سازی‌شده، افزایش ۶٫۳ درصدی فروش همراه با رشد ۱۴ درصدی بازاریابی فریب‌کارانه همراه بود. در کارزارهای انتخاباتی، افزایش ۴٫۹ درصدی سهم رأی با ۲۲٫۳ درصد رشد اطلاعات نادرست و ۱۲٫۵ درصد افزایش شعارهای پوپولیستی همراه شد و در شبکه‌های اجتماعی، رشد ۷٫۵ درصدی تعامل، با جهش حیرت‌انگیز ۱۸۸٫۶ درصدی در انتشار اطلاعات غلط و ۱۶٫۳ درصد افزایش در ترویج رفتارهای زیان‌بار همراه بود.

در پایان، مطالعه نتیجه‌گیری می‌کند که سازوکارهای حفاظتی فعلی به‌هیچ‌وجه کافی نیستند و «احتمالاً هزینه‌های اجتماعی چشمگیری در پی خواهند داشت». به گفته‌ی زو، وقتی مدل‌های زبانی بزرگ برای گرفتن لایک در شبکه‌های اجتماعی رقابت می‌کنند، شروع به داستان‌سرایی می‌کنند، برای گرفتن رأی می‌جنگند و لحنشان تحریک‌آمیز و پوپولیستی می‌شود.

مطالعه در پایگاه پیش‌انتشار آرکایو در دسترس است.

 

 

کانال رسمی دیدبان ایران در تلگرام

اخبار مرتبط

ارسال نظر