۲۴ اردیبهشت ۱۴۰۵ - ۱۳:۵۳
پشت پرده سامانه‌های هوش مصنوعی رژیم صهیونیستی/ وقتی غیرنظامیان به‌اشتباه هدف می‌شوند

گزارشی از روزنامه آمریکایی «لس‌آنجلس تایمز» به بررسی استفاده ارتش رژیم صهیونیستی از سامانه‌های مبتنی بر هوش مصنوعی پرداخته است.

به گزارش خبرگزاری بین‌المللی اهل‌بیت(ع) ـ ابنا ـ روزنامه آمریکایی لس‌آنجلس تایمز در گزارشی به استفاده ارتش رژیم صهیونیتسی از فناوری هوش مصنوعی در میدان نبرد و پیامدهای احتمالی آن پرداخته است؛ پیامدهایی که به‌گفته کارشناسان می‌تواند به خطاهای جدی در شناسایی اهداف منجر شود.

طبق این گزارش، روند شناسایی افراد بر پایه سامانه‌ای انجام می‌شود که اطلاعات متعددی را از منابع مختلف از داده‌های تلفن‌های هوشمند و دوربین‌های نظارتی و ترافیکی گرفته تا سیگنال‌های وای‌فای، تصاویر پهپادها، پایگاه‌های اطلاعاتی دولتی و داده‌های شبکه‌های اجتماعی، جمع‌آوری می‌کند. 

ساختن پروفایل تهدید از داده‌ها

پس از جمع‌آوری این اطلاعات، سامانه‌های هوشمند داده‌ها را طبقه‌بندی و ارزیابی می‌کنند و آن‌ها را با هویت افراد مرتبط می‌سازند.

بر این اساس، هوش مصنوعی می‌تواند یک جدول زمانی از فعالیت‌های فرد ایجاد کند و شبکه ارتباطات او را ترسیم کند.

این سامانه‌ها حجم عظیمی از داده‌ها را با سرعت بالا تحلیل می‌کنند، الگوها را شناسایی کرده و آن‌ها را با رفتار افرادی که پیش‌تر به‌عنوان تهدید شناخته شده‌اند یا در مناطق خاص حضور داشته‌اند، مقایسه می‌کنند.

هوش مصنوعی همچنین تغییرات رفتاری افراد و فاصله گرفتن از الگوهای عادی زندگی آن‌ها را بررسی می‌کند تا چیزی را شکل دهد که پروفایل تهدید، نامیده می‌شود.

مشکل اصلی؛ داده به‌جای منطق

اما کارشناسان معتقدند یکی از مهم‌ترین مشکلات این سیستم‌ها، نحوه تصمیم‌گیری آن‌هاست.

به گفته یکی از متخصصان هوش مصنوعی که در این گزارش به او اشاره شده، چنین سامانه‌هایی بیشتر بر داده‌ها تا استدلال و منطق، متکی هستند.

به بیان دیگر، اگر داده‌های ورودی ناقص، جانبدارانه یا دارای خطا باشند، نتیجه نهایی نیز دچار اشتباه خواهد شد.

این کارشناس توضیح می‌دهد که چنین سیستم‌هایی گاهی همبستگی را با کنش واقعی اشتباه می‌گیرند؛ یعنی صرف شباهت آماری یا ارتباطات رفتاری را نشانه تهدید تلقی می‌کنند، بدون آنکه زمینه و بستر واقعی موضوع را در نظر بگیرند.

وقتی رفتار عادی به نشانه خطر تبدیل می‌شود

«فاسجی بادالیک» استاد مؤسسه جرم‌شناسی اسلوونی، نیز در گفت‌وگو با لس‌آنجلس تایمز هشدار داده که این سامانه‌ها معمولاً فعالیت‌های روزمره افراد را دنبال می‌کنند؛ مواردی مانند اینکه فرد با چه کسانی ارتباط دارد یا در چه زمان و مکانی رفت‌وآمد می‌کند.

سپس بر اساس همین داده‌ها احتمال نظامی بودن یا خطرناک بودن یک فرد را محاسبه می‌کنند.

به گفته او، این روند می‌تواند به مثبت‌های کاذب منجر شود، وضعیتی که در آن افراد بی‌گناه به اشتباه به‌عنوان تهدید شناسایی می‌شوند.

بادالیک توضیح می‌دهد: اعضای خانواده، افرادی که در فعالیت‌های تبلیغاتی مشارکت دارند یا کسانی که در امور مالی نقش دارند، الزاماً مبارز نیستند؛ اما سیستم ممکن است به دلیل شباهت در الگوهای ارتباطی، آن‌ها را در همان دسته قرار دهد.

او در پایان پرسشی اساسی مطرح می‌کند که مرز میان یک فرد نظامی و یک غیرنظامی دقیقاً کجاست؟

این پرسش اکنون به یکی از مهم‌ترین چالش‌های استفاده از هوش مصنوعی در جنگ‌های مدرن تبدیل شده است. فناوری‌ که اگرچه سرعت و توان تحلیل را افزایش داده، اما همچنان در درک زمینه انسانی و پیچیدگی روابط واقعی با محدودیت‌های جدی روبه‌روست.

..............................

پایان پیام/ ۲۶۸

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha