کد خبر: 183109
A

گاردین: آمریکا آماده مقابله با تاثیر هوش مصنوعی بر انتخابات ریاست جمهوری می شود

انتخابات امسال آمریکا تحت تاثیر توسعه فن آوری های مرتبط با هوش مصنوعی قرار دارد. همین امسال در تماس های تلفنی با شرکت کنندگان در انتخابات درون حزبی ایالت نیوهمشایر یک فایل صوتی تولید شده توسط هوش مصنوعی پخش شد  که به نظر می رسید در آن جو بایدن رئیس جمهور آمریکا از رای دهندگان می خواهد تا در خانه بمانند و رای ندهند. به گفته مقامات، این اولین تلاش برای استفاده از هوش مصنوعی برای دخالت در انتخابات آمریکا است. ظاهرا در تولید این تماس های موسوم به "دیپ فیک" یا جعل عمیق پای 2 شرکت تگزاسی به نام های لایف کورپوریشن و لینگو تلکام در میان است.

گاردین: آمریکا آماده مقابله با تاثیر هوش مصنوعی بر انتخابات ریاست جمهوری می شود

به گزارش سایت دیده بان ایران؛ گاردین نوشت: انتخابات امسال آمریکا تحت تاثیر توسعه فن آوری های مرتبط با هوش مصنوعی قرار دارد. همین امسال در تماس های تلفنی با شرکت کنندگان در انتخابات درون حزبی ایالت نیوهمشایر یک فایل صوتی تولید شده توسط هوش مصنوعی پخش شد  که به نظر می رسید در آن جو بایدن رئیس جمهور آمریکا از رای دهندگان می خواهد تا در خانه بمانند و رای ندهند. به گفته مقامات، این اولین تلاش برای استفاده از هوش مصنوعی برای دخالت در انتخابات آمریکا است. ظاهرا در تولید این تماس های موسوم به "دیپ فیک" یا جعل عمیق پای 2 شرکت تگزاسی به نام های لایف کورپوریشن و لینگو تلکام در میان است.

 به گفته لیزا گیلبرت، معاون اجرایی موسسه پابلیک سیتیزن، که یک گروه حامی وضع مقررات ایالتی و فدرال در زمینه استفاده از هوش مصنوعی در عرصه سیاست است، هنوز مشخص نیست که تماس های جعل عمیق تا چه میزان در منصرف کردن رای دهندگان از حضور در پای صندوق ها موفق بوده است اما این موضوع اهمیتی ندارد. وی افزود: «فکر نمی کنم که لازم باشد منتظر باشیم و ببینیم چه تعداد از رای دهندگان فریب خورده اند.»

نمونه هایی از آنچه ممکن است در انتظار کمپین های انتخاباتی ریاست جمهوری آمریکا باشد، قبلا در کشورهای مختلف رخ داده است. در اسلواکی فایل های صوتی ساختگی بر روند انتخابات تاثیر گذاشته است. در اندونزی یک تصویر ساختگی از یک فرمانده ارتش، شخصیتی کمدی از وزیر دفاع این کشور در اذهان ترسیم کرده است. در هند، نسخه های هوش مصنوعی از سیاستمدارانی که دیگر زنده نیستند دوباره جان گرفته اند تا به تمجید از مقام های پیروز در انتخابات بپردازند.

اما قوانین و مقررات آمریکا آمادگی رویارویی با فن آوری به سرعت در حال پیشرفت هوش مصنوعی و تاثیرگذاری آن بر رای دهندگان را ندارد. مدت کوتاهی پس از تماس های تلفنی ساختگی در نیوهمشایر، کمیسیون ارتباطات فدرال استفاده از پیام های صوتی تلفنی از پیش ضبط شده که در آنها از هوش مصنوعی استفاده شده را ممنوع کرد. کمیسیون ارتباطات فدرال  هنوز مقرراتی که بر استفاده از هوش مصنوعی در تبلیغات سیاسی حاکم باشد وضع نکرده است، اما ایالات های مختلف به سرعت در حال پر کردن این خلاء قانونی هستند. 

مجلس نمایندگان آمریکا در 20 فوریه گروه کاری ای را برای تحقیق در خصوص راه های قانو نگذاری و ارائه راه کارهای لازم  جهت مدیریت استفاده از هوش مصنوعی در تولید محتوا تشکیل داد. اما با توجه به اختلافات بین دو حزب جمهوری خواه و دموکرات در کنگره، و عقب افتادن فرآیند وضع مقررات از روند پرشتاب توسعه هوش مصنوعی، مشخص نیست که آیا چنین مقرراتی تا زمان انتخابات امسال ریاست جمهوری این کشور وضع خواهد شد یا نه.

 

بدون وضع ضمانت های اجرایی روشن، هوش مصنوعی ممکن است رای دهنگان در انتخابات آمریکا را در تشخیص داده های واقعی از غیرواقعی دچار مشکل نماید. هوش مصنوعی در قالب متن، ربات، فایل صوتی، تصویر یا ویدئو می تواند کاندیداها را در حال بیان یا انجام سخنان و کارهایی نشان دهد که واقعیت ندارد، به شهرت و اعتبار آنان لطمه بزند یا رای دهندگان را گمراه سازد. این فن آوری همچنین می تواند موجب تشدید کمپین های گسترش اطلاعات نادرست شود و با واقعی جلوه دادن تصاویر ساختگی موجب سردرگمی رای دهندگان گردد.

به ویژه فایل های صوتی جعلی می تواند تاثیر فریبکارانه بیشتری داشته باشد، زیرا فن آوری جعل ویدئو هنوز به اندازه کافی پیشرفته نیست و دریافت کنندگان تماس های صوتی جعلی احتمالا به ذهنشان خطور نمی کند که صدای آن سوی خط جعلی است، در حالی که همان مخاطبان جعلی بودن فایل های ویدئویی را تشخیص می دهند. کارشناسان همچنین نگران اند تماس های انجام شده توسط هوش مصنوعی صدای افرادی را تقلید کنند که اشخاص در زندگی واقعی خود آنها را می شناسند و این امکان تاثیرگذاری بیشتری بر مخاطب را افزایش می دهد. تماس گیرنده با استفاده از یک روش فریبکارانه مرسوم، از هوش مصنوعی برای تقلید صدای فردی که برای قربانی عزیز و محترم است استفاده می کند تا او را مجاب به ارسال پول به یک حساب مشخص نماید. می توان از همین شیوه برای تاثیرگذاری بر سیاست و انتخابات نیز استفاده کرد.

گیلبرت گفت: «این می تواند یک تماس از سوی عضو خانواده شما یا همسایه تان باشد و صدای ساختگی می تواند دقیقا مثل صدای فرد باشد... توانایی فریب اشخاص با استفاده از هوش مصنوعی موجب شده تا موضوع اطلاعات نادرست و غلط رشد چشمگیری پیدا کند.»

چستر ویسنیوسکی، کارشناس امنیت سایبری در موسسه سوفوس می گوید، کسانی که می خواهند بر انتخابات اثر بگذارند، دیگر نیازی به تولید اطلاعات ساختگی ماهرانه ندارند.» اکنون ابزار هوش مصنوعی امکان به کارگیری سریع ربات هایی را فراهم می کند که درست مثل افراد واقعی هستند.

اما شاید نگران کننده ترین موضوع این باشد که ظهور هوش مصنوعی موجب شده تا مردم بعد از دیدن هر چیزی این سوال را از خود بپرسند که آیا این واقعی است یا ساختگی و این موجب ایجاد حجم عظیمی از شک و تردید در دورانی می شود که فن آوری ها هنوز در حال یادگیری بهترین راه های تقلید صداها و تصاویر واقعی افراد هستند.

کیتی هاربث، از مسئولان سابق سیاست گذاری شرکت فیس بوک گفت: «بین چیزی که هوش مصنوعی می تواند انجام دهد و آنچه اکنون هوش مصنوعی انجام می دهد تفاوت وجود دارد.» مردم از خود خواهند پرسید: «اگر هوش مصنوعی بتواند همه این کارها را انجام بدهد چه؟ در آن صورت ممکن است من به هیچ چیزی که می بینم اعتماد نکنم.»

با وجود عدم تصویب مقررات دولتی برای محدود کردن توسعه هوش مصنوعی، شرکت هایی که مدیریت ابزارهای هوش مصنوعی را بر عهده دارند تصمیم به محدود کردن تاثیرات احتمالی آن بر انتخابات گرفته اند. بر اساس توافق اخیری که به دست آمده، شرکت هایی نظیر گوگل، متا، مایکروسافت و اوپن ای آی تصمیم گرفته اند اقدامات احتیاطی معقولی نظیر علامت گذاری های بیشتر روی محتواهای ساختگی و آموزش در خصوص محتواهای سیاسی تولید شده توسط هوش مصنوعی را به اجرا بگذارند، اما چنین اقداماتی به معنای منع استفاده از هوش مصنوعی در این حوزه ها نیست.

افراد متخلف اغلب قوانین و محدودیت های دولتی ای را که توسط پلتفورم ها اعمال می شود نادیده گرفته و یا آنها را دور می زنند.

در سطح ملی یا در رابطه با افراد معروف، تکذیب جعل های عمیق نسبتا سریع اتفاق می افتد. اما وقتی این جعل ها در ابعاد کوچکتر رخ می دهد، افراد کمی هستند که برای رد و تکذیب یک محتوای جعلی وارد عمل می شوند و گاهی حتی اثبات جعلی بودن آنها مستلزم انجام حقیقات بیشتر است. 

 

کانال رسمی دیدبان ایران در تلگرام

اخبار مرتبط

ارسال نظر