به گزارش خبرگزاری اهلبیت(ع) _ ابنا _ حجتالاسلام والمسلمین سعید رضا عاملی در نشست تخصصی با محوریت «اخلاق جنگ و هوش مصنوعی» با طرح این پرسش که فناوریهای نوین چه نوع «اخلاق جنگی» را به بشر توصیه میکنند، گفت: هوش مصنوعی بهعنوان یک ظرفیت خودکار، عملاً رابطه انسانی را از فرآیندها حذف میکند؛ بهگونهای که هم «ارتباطگر» و هم «ارتباطگیر» در یک بستر الگوریتمی جایگزین میشوند و تصمیمگیریها در چارچوبی غیرانسانی شکل میگیرد.
وی افزود: زمانی که هوش مصنوعی وارد میدان جنگ میشود، با پدیدهای مواجه هستیم که فاقد روح انسانی، ادراک اخلاقی و مواجهه واقعی با پیامدهای جنگ است؛ موضوعی که میتواند مخاطرات جنگ را بهشدت پیچیدهتر و خطرناکتر کند. به همین جهت «خطای الگوریتم» در چنین شرایطی میتواند فجایعی بزرگ رقم بزند.
عاملی با اشاره به نمونههایی از حملات مرگبار، از جمله حادثه حمله به مدرسه «شجره طیبه» و کشته شدن ۱۶۸ کودک، اینگونه رخدادها را مصداق خطاهای بزرگ یا حتی اقدامات عامدانه در چارچوب جنگهای مدرن دانست و تصریح کرد: نسبت دادن چنین فجایعی به خطای هوش مصنوعی قابل قبول نیست و این اقدامات در راستای ایجاد «وحشت سازمانیافته» انجام میشود.
عضو شورای عالی انقلاب فرهنگی با تشریح روند تاریخی تحولات جنگ، به چهار دوره اصلی اشاره کرد: نخست، جنگهای پیشاصنعتی با محدودیتهای زیستی؛ دوم، عصر صنعتی با ظهور سلاحهایی مانند مسلسل ماکسیم که امکان کشتار گسترده را فراهم کرد؛ سوم، عصر هستهای و الکترونیک با اوج تخریب، از جمله بمباران اتمی هیروشیما و ناکازاکی؛ و چهارم، عصر دیجیتال و شبکهای که جنگ را به پدیدهای «از راه دور» و عاری از مواجهه مستقیم انسانی تبدیل کرده است.
وی افزود: اکنون وارد دوره پنجم، یعنی «عصر الگوریتم و خودکارسازی جنگ» شدهایم؛ جایی که سیستمهای هوش مصنوعی با پردازش هزاران متغیر، بدون درک انسانی و اخلاقی، میتوانند درباره مرگ و زندگی تصمیم بگیرند.
عاملی با انتقاد از سیاستهای نظامی ایالات متحده گفت: برخی مقامات آمریکایی صراحتاً بر توسعه «مرگبارترین نیروی جنگی» تأکید دارند و حتی تضمین میدهند که وارد نبرد منصفانه نشوند.
وی با اشاره به جنگهای طولانی آمریکا در کشورهایی مانند ویتنام و کامبوج، این رویکرد را «منطق کشتار گسترده» توصیف کرد.
عاملی همچنین به تهدیدات مداوم علیه ایران اشاره کرد و گفت: در حالی که برنامه هستهای ایران ماهیتی صلحآمیز در حوزههایی مانند انرژی و پزشکی دارد، شاهد حملات و اقدامات خصمانه علیه زیرساختها و شهرهای کشور هستیم.
وی با یادآوری استفاده گسترده از سلاحهای شیمیایی در جنگ تحمیلی علیه ایران تأکید کرد: با وجود شکلگیری کنوانسیونهای بینالمللی مانند کنوانسیون ژنو، در جنگ هشتساله این سلاحها علیه مردم ایران بهکار گرفته شد و آثار آن همچنان در میان جانبازان قابل مشاهده است.
عضو شورای عالی انقلاب فرهنگی با اشاره به اصول سهگانه حقوق بینالملل بشردوستانه شامل «تفکیک»، «تناسب» و «احتیاط» گفت: حمله به غیرنظامیان، تخریب زیرساختهای غیرنظامی و ایجاد رعب و وحشت در میان مردم، نقض صریح این اصول است.
وی با اشاره به حملات اخیر و کشته شدن بیش از ۲۲۰ کودک و هزاران غیرنظامی، این اقدامات را نمونهای از بیتوجهی به اصول انسانی دانست و افزود: برخی حملات با ادعای هدفگیری مراکز نظامی انجام میشود، اما در عمل خانوادهها و کودکان قربانی میشوند.
عاملی همچنین به ترور برخی فرماندهان ایرانی از جمله سردار قاسم سلیمانی اشاره کرد و گفت: این اقدامات علیه شخصیتهایی صورت گرفته که از دل مردم برخاسته بودند و نقش مهمی در امنیت منطقه ایفا میکردند.
وی با بیان اینکه هوش مصنوعی فاقد درک بافت انسانی است، گفت: این فناوری دادهها را صرفاً بهصورت پیکسل، سیگنال یا مختصات میبیند و توانایی درک معنای انسانی آنها را ندارد. به همین دلیل، نمیتواند بهدرستی درباره جان انسانها تصمیمگیری کند.
عضو شورای عالی انقلاب فرهنگی افزود: در حالی که یک فرمانده انسانی ممکن است با توجه به شرایط، از حملهای صرفنظر کند، سیستمهای هوش مصنوعی چنین درکی ندارند و بر اساس محاسبات خشک عمل میکنند.
وی در ادامه پیشنهاد داد: برای جلوگیری از فجایع، باید استانداردهای سختگیرانهای تعریف شود؛ از جمله اینکه اگر یک سیستم هوش مصنوعی نتواند با اطمینان بسیار بالا (مثلاً ۹۹.۹ درصد) ماهیت نظامی یک هدف را تشخیص دهد، حمله باید بهطور کامل متوقف شود.
عاملی با تأکید بر دیدگاههای اخلاقی در سنت اسلامی گفت: در این نگاه، حتی در جنگ نیز اصولی مانند پرهیز از کشتن زنان، کودکان و غیرنظامیان، عدم تخریب طبیعت و وفاداری به عهد مورد تأکید است.
وی خاطرنشان کرد: آنچه امروز در برخی جنگهای مدرن مشاهده میشود، فاصله جدی با این اصول دارد و لازم است با تقویت اخلاق الهی و انسانی، از تبدیل فناوری به ابزاری برای کشتار بیضابطه جلوگیری شود.
.......
پایان پیام/ ۲۱۸
نظر شما