چگونه سازمانهای جاسوسی در حال آزمایش مدلهای جدید هوش مصنوعی هستند؟
اکونومیست نوشت: در همان روزی که دونالد ترامپ بهعنوان رئیسجمهور آمریکا سوگند یاد کرد، شرکت چینی DeepSeek یک مدل زبان بزرگ (LLM) در سطح جهانی منتشر کرد. ترامپ این رخداد را "زنگ بیدارباش" توصیف کرد. مارک وارنر، معاون رئیس کمیته اطلاعات سنا، گفت که جامعه اطلاعاتی آمریکا (IC) - متشکل از ۱۸ نهاد و سازمان - «غافلگیر شد».

به گزارش سایت دیدهبان ایران؛ اکونومیست نوشت: در همان روزی که دونالد ترامپ بهعنوان رئیسجمهور آمریکا سوگند یاد کرد، شرکت چینی DeepSeek یک مدل زبان بزرگ (LLM) در سطح جهانی منتشر کرد. ترامپ این رخداد را "زنگ بیدارباش" توصیف کرد. مارک وارنر، معاون رئیس کمیته اطلاعات سنا، گفت که جامعه اطلاعاتی آمریکا (IC) - متشکل از ۱۸ نهاد و سازمان - «غافلگیر شد».
در ۱۴ ژوئیه، پنتاگون قراردادهایی تا سقف ۲۰۰ میلیون دلار به هر یک از Anthropic، گوگل، OpenAI و xAI (متعلق به ایلان ماسک، که ربات چت آن اخیراً در نتیجه یک بهروزرسانی اشتباه، خود را هیتلر معرفی کرده بود) اعطا کرد تا با مدلهای «عاملمحور» (agentic) آزمایشهایی انجام دهند. این مدلها میتوانند به نمایندگی از کاربران وظایف پیچیده را به مراحل کوچکتر تقسیم کرده و بر ابزارهایی مانند خودروها یا رایانهها کنترل داشته باشند.
آزمایشگاههای پیشرو در حوزه اطلاعاتی نیز به همان اندازه فعالاند که در حوزه نظامی. بخش زیادی از کاربردهای اولیه، مربوط به استفاده از رباتهای چت LLM برای پردازش دادههای فوقمحرمانه است. در ژانویه، مایکروسافت اعلام کرد که ۲۶ محصول رایانش ابری آن برای استفاده در نهادهای اطلاعاتی مجوز دریافت کردهاند. در ژوئن، Anthropic از عرضه «Claude Gov» خبر داد که «قبلاً توسط نهادهایی در بالاترین سطح امنیت ملی آمریکا به کار گرفته شده بود». اکنون از این مدلها در همه نهادهای اطلاعاتی ایالات متحده استفاده میشود و مدلهای دیگر آزمایشگاهها نیز رقابت میکنند
شرکتهای هوش مصنوعی معمولاً مدلهای خود را برای نیازهای اطلاعاتی تنظیم میکنند. بهعنوان مثال، مدل عمومی Claude ممکن است اسناد دارای نشانههای محرمانه را رد کند، اما Claude Gov بهگونهای تنظیم شده که چنین محدودیتی نداشته باشد. همچنین این نسخه دارای «تسلط بالاتر» بر زبانها و لهجههایی است که کاربران دولتی ممکن است به آن نیاز داشته باشند. این مدلها معمولاً روی سرورهای امن و خارج از اینترنت عمومی اجرا میشوند. اکنون نسل جدیدی از مدلهای عاملمحور در درون این نهادها ساخته میشود.
روند مشابهی در اروپا نیز در جریان است. یک منبع بریتانیایی میگوید: «در حوزه هوش مصنوعی مولد، تلاش کردهایم که بسیار سریع از مدلهای پیشرو پیروی کنیم.» وی افزود: «همه افراد در جامعه اطلاعاتی بریتانیا (UKIC) به قابلیتهای فوقمحرمانه LLM دسترسی دارند.» شرکت فرانسوی Mistral که تنها بازیگر بزرگ اروپا در این حوزه است، با آژانس نظامی هوش مصنوعی فرانسه (AMIAD) همکاری دارد. مدل Saba متعلق به Mistral با دادههایی از خاورمیانه و آسیای جنوبی آموزش داده شده و در نتیجه در زبانهایی مانند عربی و زبانهای منطقهای کوچکتری مانند تامیل مهارت دارد. در ژانویه، مجله +972 گزارش داد که استفاده نیروهای مسلح اسرائیل از GPT-4 (پیشرفتهترین مدل OpenAI در آن زمان) پس از آغاز جنگ غزه، ۲۰ برابر شده است.
با وجود همه این تحولات، پیشرفت همچنان کند است. کاترینا مولیگان، مقام سابق دفاعی و اطلاعاتی که اکنون مسئول شراکتهای OpenAI در این حوزه است، میگوید: «پذیرش هوش مصنوعی در حوزه امنیت ملی هنوز به نقطه مطلوب نرسیده است.» به گفته یکی از منابع داخلی، آژانس امنیت ملی آمریکا (NSA) که دههها در زمینه فناوریهایی مانند تشخیص صدا فعالیت کرده، نقطهای موفق در این حوزه است. اما بسیاری از نهادها هنوز میخواهند «لایههایی اختصاصی» روی رباتهای چت موجود بسازند، کاری که معمولاً باعث میشود از آخرین مدلهای عمومی عقب بمانند.
تارون چابرا، که قبلاً مسئول سیاستگذاری فناوری در شورای امنیت ملی بایدن بود و اکنون مسئول سیاستگذاری امنیت ملی در Anthropic است، میگوید: «نقطه تحولآفرین فقط استفاده از آن بهعنوان یک چتبات نیست. موضوع اصلی این است که وقتی شروع به استفاده کردی، باید ببینی چگونه میتوانی کل مأموریت را بازطراحی کنی.»
بازی جاسوسی با هوش مصنوعی
برخی شکاکان معتقدند این امیدها بیش از حد اغراقآمیزند. ریچارد کارتر از مؤسسه آلن تورینگ – مؤسسه ملی هوش مصنوعی بریتانیا – میگوید آنچه سازمانهای اطلاعاتی در آمریکا و بریتانیا واقعاً میخواهند این است که آزمایشگاهها میزان «توهمزایی» مدلهای فعلی را بهشدت کاهش دهند.
به گفته منبع بریتانیایی، آژانسهای بریتانیا از تکنیکی به نام «تولید تقویتشده با بازیابی» (retrieval augmented generation) استفاده میکنند؛ یعنی الگوریتمی اطلاعات موثق را یافته و به مدل زبان بزرگ میدهد تا خطاها کاهش یابد. دکتر کارتر هشدار میدهد: «آنچه در حوزه اطلاعاتی نیاز دارید ثبات، قابلیت اطمینان، شفافیت و توضیحپذیری است.» در عوض، آزمایشگاهها بر ساخت مدلهای پیشرفتهتر عاملمحور تمرکز کردهاند.
بهعنوان نمونه، Mistral در یک ارائه نمایشی به مشتریان بالقوه نشان داده که چگونه میتوان برای هر جریان اطلاعاتی (مثل تصاویر ماهوارهای یا شنود صوتی) یک عامل هوش مصنوعی اختصاص داد تا تصمیمگیری سریعتر شود. یا تصور کنید عاملی که مأمور شناسایی، تحقیق و تماس با صدها دانشمند هستهای ایرانی برای ترغیب به فرار باشد. چابرا میگوید: «ما به اندازه کافی درباره نحوه استفاده از عوامل هوش مصنوعی در زمینه جنگی فکر نکردهایم.»
دکتر کارتر هشدار میدهد که مشکل مدلهای عاملمحور این است که آنها بهصورت بازگشتی خودشان دستورات جدید تولید میکنند که باعث غیرقابل پیشبینیشدن و افزایش خطر خطاهای انباشته میشود. مدل عاملمحور اخیر OpenAI یعنی ChatGPT Agent در حدود ۸٪ از پاسخهای خود دچار توهم است، که از مدل قبلی این شرکت یعنی o3 نرخ بالاتری دارد.
برخی آزمایشگاههای هوش مصنوعی این نگرانیها را ناشی از بوروکراسی میدانند، اما به گفته دکتر کارتر، این در واقع محافظهکاری سالم است: «در GCHQ (معادل بریتانیایی NSA)، مهندسانی فوقالعاده بااستعداد مشغولاند که ذاتاً در برابر فناوریهای جدید محتاطاند.»
این موضوع به بحث گستردهتری نیز مرتبط است: آینده هوش مصنوعی دقیقاً به کجا میرود؟ دکتر کارتر معتقد است معماری مدلهای عمومی فعلی برای استنتاج علت-معلولی طراحی نشدهاند و توانایی واقعی درک دنیای واقعی را ندارند. او میگوید آژانسهای اطلاعاتی باید بر توسعه نسل جدیدی از مدلهای استنتاجی تمرکز کنند.
در مقابل، برخی هشدار میدهند که چین ممکن است از آمریکا پیشی بگیرد. فیلیپ راینر از مؤسسه امنیت و فناوری در سیلیکونولی میگوید: «ما هنوز درک دقیقی نداریم که چین چگونه و تا چه اندازه از DeepSeek برای رفع شکافهای اطلاعاتی و نظامی خود استفاده کرده است.» او میافزاید: «احتمالاً آنها مثل ما محدودیتهای ایمنی سختگیرانه ندارند، و بنابراین ممکن است سریعتر به بینشهای قدرتمند دست یابند.»
در ۲۳ ژوئیه، دولت ترامپ دستور داد که پنتاگون و نهادهای اطلاعاتی آمریکا بهطور منظم میزان سرعت پذیرش هوش مصنوعی در نهادهای امنیت ملی را نسبت به رقبا – از جمله چین – ارزیابی کرده و «رویکردی برای سازگاری مداوم» تعیین کنند.
در این مورد تقریباً همه اتفاقنظر دارند. سناتور وارنر میگوید که عملکرد جاسوسان آمریکایی در رصد پیشرفت چین «بسیار ضعیف» بوده است: «دسترسی به فناوری و نفوذ در شرکتهای فناوری چینی هنوز بسیار پایین است.» به گفته مولیگان، بزرگترین خطر این نیست که آمریکا خیلی زود وارد فناوری شود؛ بلکه این است که وزارت دفاع و جامعه اطلاعاتی همان روشهای قدیمی را ادامه دهند. او هشدار میدهد: «آنچه شبها خواب را از چشمان من میگیرد، این است که ممکن است ما در رقابت برای دستیابی به هوش عمومی مصنوعی (AGI) برنده شویم… اما رقابت بر سر پذیرش آن را ببازیم.»