به گزارش خبرگزاری بینالمللی اهلبیت(ع) ـ ابنا ـ روزنامه آمریکایی لسآنجلس تایمز در گزارشی به استفاده ارتش رژیم صهیونیتسی از فناوری هوش مصنوعی در میدان نبرد و پیامدهای احتمالی آن پرداخته است؛ پیامدهایی که بهگفته کارشناسان میتواند به خطاهای جدی در شناسایی اهداف منجر شود.
طبق این گزارش، روند شناسایی افراد بر پایه سامانهای انجام میشود که اطلاعات متعددی را از منابع مختلف از دادههای تلفنهای هوشمند و دوربینهای نظارتی و ترافیکی گرفته تا سیگنالهای وایفای، تصاویر پهپادها، پایگاههای اطلاعاتی دولتی و دادههای شبکههای اجتماعی، جمعآوری میکند.
ساختن پروفایل تهدید از دادهها
پس از جمعآوری این اطلاعات، سامانههای هوشمند دادهها را طبقهبندی و ارزیابی میکنند و آنها را با هویت افراد مرتبط میسازند.
بر این اساس، هوش مصنوعی میتواند یک جدول زمانی از فعالیتهای فرد ایجاد کند و شبکه ارتباطات او را ترسیم کند.
این سامانهها حجم عظیمی از دادهها را با سرعت بالا تحلیل میکنند، الگوها را شناسایی کرده و آنها را با رفتار افرادی که پیشتر بهعنوان تهدید شناخته شدهاند یا در مناطق خاص حضور داشتهاند، مقایسه میکنند.
هوش مصنوعی همچنین تغییرات رفتاری افراد و فاصله گرفتن از الگوهای عادی زندگی آنها را بررسی میکند تا چیزی را شکل دهد که پروفایل تهدید، نامیده میشود.
مشکل اصلی؛ داده بهجای منطق
اما کارشناسان معتقدند یکی از مهمترین مشکلات این سیستمها، نحوه تصمیمگیری آنهاست.
به گفته یکی از متخصصان هوش مصنوعی که در این گزارش به او اشاره شده، چنین سامانههایی بیشتر بر دادهها تا استدلال و منطق، متکی هستند.
به بیان دیگر، اگر دادههای ورودی ناقص، جانبدارانه یا دارای خطا باشند، نتیجه نهایی نیز دچار اشتباه خواهد شد.
این کارشناس توضیح میدهد که چنین سیستمهایی گاهی همبستگی را با کنش واقعی اشتباه میگیرند؛ یعنی صرف شباهت آماری یا ارتباطات رفتاری را نشانه تهدید تلقی میکنند، بدون آنکه زمینه و بستر واقعی موضوع را در نظر بگیرند.
وقتی رفتار عادی به نشانه خطر تبدیل میشود
«فاسجی بادالیک» استاد مؤسسه جرمشناسی اسلوونی، نیز در گفتوگو با لسآنجلس تایمز هشدار داده که این سامانهها معمولاً فعالیتهای روزمره افراد را دنبال میکنند؛ مواردی مانند اینکه فرد با چه کسانی ارتباط دارد یا در چه زمان و مکانی رفتوآمد میکند.
سپس بر اساس همین دادهها احتمال نظامی بودن یا خطرناک بودن یک فرد را محاسبه میکنند.
به گفته او، این روند میتواند به مثبتهای کاذب منجر شود، وضعیتی که در آن افراد بیگناه به اشتباه بهعنوان تهدید شناسایی میشوند.
بادالیک توضیح میدهد: اعضای خانواده، افرادی که در فعالیتهای تبلیغاتی مشارکت دارند یا کسانی که در امور مالی نقش دارند، الزاماً مبارز نیستند؛ اما سیستم ممکن است به دلیل شباهت در الگوهای ارتباطی، آنها را در همان دسته قرار دهد.
او در پایان پرسشی اساسی مطرح میکند که مرز میان یک فرد نظامی و یک غیرنظامی دقیقاً کجاست؟
این پرسش اکنون به یکی از مهمترین چالشهای استفاده از هوش مصنوعی در جنگهای مدرن تبدیل شده است. فناوری که اگرچه سرعت و توان تحلیل را افزایش داده، اما همچنان در درک زمینه انسانی و پیچیدگی روابط واقعی با محدودیتهای جدی روبهروست.
..............................
پایان پیام/ ۲۶۸
نظر شما