به گزارش خبرگزاری بینالمللی اهلبیت(ع) ـ ابنا ـ در حالی که ارتشهای غربی با بحران جذب نیرو و عقبماندگی در برخی فناوریهای نوین تسلیحاتی بهویژه سامانههای هایپرسونیک مواجهاند، وزارت دفاع آمریکا تمرکز راهبردی خود را بر تسریع نظامیسازی هوش مصنوعی قرار داده است؛ روندی که اکنون به نقطهای تنشزا میان دولت آمریکا و شرکتهای پیشرو فناوری رسیده است.
تمرکز پنتاگون بر هوش مصنوعی پیشرفته
به گزارش منابع رسانهای، پنتاگون طی یک دهه گذشته بهصورت مستمر در پی ادغام هوش مصنوعی در ساختارهای عملیاتی خود بوده، اما در ماههای اخیر این روند با شدت بیشتری دنبال میشود. در این چارچوب، همکاری گستردهای میان وزارت دفاع آمریکا و شرکتهای بزرگ فناوری شکل گرفته است؛ همکاریای که مرز میان مجتمع نظامی-صنعتی و بخش غیرنظامی فناوری را بیش از پیش کمرنگ کرده است.
شرکتهایی نظیر آلفابت، آمازون، متا و نیز بازیگران نوظهور این عرصه از جمله آنتروپیک، پالانتیر و اندوریل در پروژههای مرتبط با هوش مصنوعی نظامی نقش دارند. با این حال، اختلاف اخیر میان پنتاگون و شرکت آنتروپیک به یکی از برجستهترین نمودهای این چالش تبدیل شده است.
اختلاف بر سر «کلود گُو» و محدودیتهای اخلاقی
بر اساس گزارش منتشرشده از سوی بلومبرگ، پنتاگون و شرکت آنتروپیک بر سر تمدید قرارداد استفاده از سامانه هوش مصنوعی «کلود گُو» (Claude Gov) دچار اختلاف شدهاند. این نسخه تخصصی از مدل «کلود» برای کاربریهای امنیت ملی آمریکا طراحی شده و قابلیت تحلیل اطلاعات طبقهبندیشده، تفسیر دادههای اطلاعاتی و پردازش دادههای امنیت سایبری را دارد.
آنتروپیک خواستار اعمال «محدودیتهای سختگیرانه» پیش از تمدید قرارداد شده و تأکید کرده است که این سامانه نباید در نظارت انبوه از شهروندان آمریکایی یا توسعه سامانههای تسلیحاتی کاملا خودمختار بدون نظارت انسانی مورد استفاده قرار گیرد.
در مقابل، وزارت دفاع آمریکا اعلام کرده خواستار «انعطافپذیری بیشتر» در بهکارگیری این مدل در زنجیره عملیات نظامی است و استفاده از آن را مادامیکه در چارچوب قانون باشد، مجاز میداند. با این حال، منتقدان میگویند اتکای صرف به چارچوبهای قانونی، در شرایطی که قوانین میتوانند تغییر یابند، تضمین پایداری برای رعایت ملاحظات اخلاقی ایجاد نمیکند.
تهدید به حذف و فشار غیرمستقیم
سخنگوی ارشد پنتاگون در گفتوگو با فاکس نیوز بیان کرده است که رابطه این وزارتخانه با آنتروپیک «در حال بازبینی» است. همزمان برخی منابع از بررسی گزینهای خبر دادهاند که بر اساس آن، پیمانکاران نظامی ملزم شوند تأیید کنند از مدلهای آنتروپیک استفاده نمیکنند؛ اقدامی که از نگاه تحلیلگران نوعی فشار غیرمستقیم بر این شرکت تلقی میشود.
داریو آمودی (Dario Amodei)، مدیرعامل آنتروپیک، همچنان بر ضرورت وجود «نردههای حفاظتی» برای جلوگیری از نظارت گسترده داخلی و توسعه سلاحهای کاملا خودمختار بدون دخالت انسان تأکید دارد. سیاست «استفاده قابل قبول» این شرکت صراحتا طراحی یا بهکارگیری تسلیحات، نظارت داخلی و تسهیل عملیات خشونتآمیز یا مخرب سایبری را ممنوع کرده است؛ محدودیتهایی که به گفته مقامهای پنتاگون «غیرعملی» هستند.
ورود بازیگران سیاسی و تشدید فضای تقابلی
در این میان، برخی چهرههای سیاسی و فناوری نیز وارد مناقشه شدهاند. ایلان ماسک با انتقاد تند از آنتروپیک، رویکرد این شرکت را «ایدئولوژیک» توصیف کرده و آن را به جانبداری سیاسی متهم کرده است. همزمان گزارشها از مشارکت شرکت اسپیس ایکس در پروژههای مرتبط با پنتاگون حکایت دارد.
برخی منابع همچنین مدعی شدهاند که آنتروپیک نسبت به استفاده از سامانهاش در عملیات علیه نیکولاس مادورو در ونزوئلا بدون اطلاع قبلی شرکت ابراز نگرانی کرده است؛ موضوعی که به تشدید اختلافات انجامیده است.
نگرانی از روند فزاینده نظامیسازی هوش مصنوعی
در حالی که کشورهای مختلف جهان خواستار تنظیمگری بینالمللی برای جلوگیری از سوءاستفاده نظامی از هوش مصنوعی شدهاند، دولت آمریکا تاکنون رویکردی محتاطانه نسبت به چنین چارچوبهایی داشته است. اکنون اختلاف داخلی میان پنتاگون و برخی شرکتهای فناوری نشان میدهد حتی در داخل آمریکا نیز اجماعی کامل درباره حدود و ثغور استفاده نظامی از این فناوری وجود ندارد.
کارشناسان هشدار میدهند حذف محدودیتهای اخلاقی میتواند مسیر توسعه تسلیحات خودمختار و سامانههای نظارتی پیشرفته را هموار کند؛ روندی که پیامدهای عمیقی برای حقوق بشر، حریم خصوصی و ثبات بینالمللی خواهد داشت.
در مجموع، تشدید اختلاف میان پنتاگون و آنتروپیک تنها یک مناقشه قراردادی نیست، بلکه نشانهای از کشمکش گستردهتر بر سر کنترل و جهتدهی به یکی از راهبردیترین فناوریهای قرن بیستویکم به شمار میرود؛ فناوریای که مرز میان امنیت و تهدید را بیش از هر زمان دیگری باریک کرده است.
**************
End/ 345A