به گزارش خبرگزاری بینالمللی اهلبیت(ع) ـ ابنا ـ در اواخر آبان ماه خبری از این قرار در بسیاری از درگاههای مراکز علمی قرار گرفت که: «راهنمای استفاده از ابزارهای هوش مصنوعی در پژوهش» که توسط مؤسسه تحقیقات سیاست علمی کشور و تحت نظارت معاونت پژوهشی وزارت علوم، تحقیقات و فناوری و دفتر سیاستگذاری و برنامهریزی امور پژوهشی تدوین شده است، ابلاغ شد.
در این که می بایست یک قانون و آیین نامه برای استفاده از ابزارهای هوش مصنوعی در پژوهش داشت شکی نیست اما این «راهنمای استفاده از ابزارهای هوش مصنوعی در پژوهش» بشدت مورد نقد و بررسی متخصصان و فعالان عرصه هوش مصنوعی قرار گرفت .
در ادامه نقد علمی و یادداشت تفصیلی دکتر مهدی طریقت رئیس اندیشکده و پردیس هوش مصنوعی و زیست مجازی را در این باره بخوانید.
از همان لحظات ابتدایی که نسخهٔ اولیهٔ این آییننامه را ورق زدم، احساسی سنگین از مسئولیت با من همراه شد. این سند تنها یک راهنما برای استفاده از ابزارهای هوش مصنوعی نیست؛ بلکه نقطهٔ شروعی برای قانونگذاری در این حوزه باشد و آیندهٔ پژوهش و تولیدات علمی کشور را شکل دهد. اگر این ریلگذاری بر پایههایی سست و ناآگاهانه بنا شود، چگونه میتوان انتظار داشت قطار علم و فناوری به مقصدی روشن برسد؟!
بهعنوان کسی که سالها در مرز میان هوش مصنوعی، پژوهش، حقوقو فقه اسلامی تحصیلات، مطالعات و پژوهشهای فراوانی نمودم وحتی قوانین سایر کشورها را در ارتباط با هوش مصنوعی و پژوهش بررسی کردهام، نمیتوانم نسبت به عواقب چنین سیاستهایی بیتفاوت بمانم. کوچکترین لغزش در تدوین مقررات میتواند فضای دانشگاهی و پژوهشی را برای نسلهای آتی محدود یا حتی مسموم کند. به همین دلیل، این نقد را با دغدغهای عمیق و نگاهی علمی فراهم کردم تا اساتید و پژوهشگران محترم پیش از آن که دیر شود بدانند در کدام مسیر قرار گرفتهایم و چگونه میتوان از آیندهٔ علمی کشور محافظت کرد.
این نگرانی وقتی شدت میگیرد که به ترکیب تدوینکنندگان و مسئولان این سند نگاه کنیم. اسامی ذکرشده در آغاز سند عمدتاً شامل مدیران دولتی وزارت متبوع و اعضای هیئت علمی حوزههای کاملاً بیربط به آئیننامه همچون؛ شیمی، زیستشناسی دارویی، مهندسی برق و صنایع، منابع طبیعی و تربیت بدنی است! و جالبتر اینجاست که حضور متخصصان هوش مصنوعی، علوم داده، حقوق فناوری، فلسفه علم و نمایندگان جامعه مدنی که بتوانند ابعاد انسانی و حقوقی این فناوری را بهدرستی درک و بازتاب دهند بهطور کامل نادیده گرفته شده است! این نقص آشکار در ترکیب تیم تدوین زنگ خطری جدی است؛ زیرا افرادی که سابقهای در تحلیل پیامدهای اجتماعی و قانونی فناوریهای پیشرفته ندارند، مسئول تدوین سندی شدهاند که قرار است مسیر آیندهٔ علمی کشور را تعیین کند. حتی اگر این عزیزان در رشتههای خود اساتید وپژوهشگرانی موفق و بنام باشند، این واقعیت به هیچوجه اجازه نمیدهد در حوزهای که تخصص و تحصیلات مرتبط ندارند اظهار نظر یا قانونگذاری کنند؛ قاعدهای که مورد تأکید همهٔ اساتید و صاحبنظران است و بدیهی مینماید که هر کس باید در حوزهٔ تخصص خود سخن بگوید، چه برسد به آن که برای دیگران آییننامه و قانون وضع کند. چگونه میتوان انتظار داشت چنین ترکیبی بتواند سندی اصولی و بیخطا برای مقرراتگذاری AI تدوین کند؟! چه کسی مسئول انتخاب این تیم بوده؟ و به چه مبنا و قاعدهای؟ این وضعیت نه تنها به ضعف علمی و حقوقی آییننامه دامن میزند، بلکه آیندهٔ پژوهش و نوآوری را به دست کسانی میسپارد که از پیچیدگیهای فنی، اخلاقی و قانونی این حوزه بیخبرند و موجب نگرانی عمیقی میشود که مبادا مسیر علم کشور بهوسیلهٔ سیاستگذاریهای ناآگاهانه منحرف شود و فضایی غیرقابل اعتماد برای محققان و دانشگاهیان به وجود آید.
افزون بر این، سند مورد اشاره با شعار «توانمندسازی نه محدودسازی» آغاز میشود و میخواهد راهنمایی برای استفاده از ابزارهای هوش مصنوعی در پژوهش باشد، اما در پشت این شعارها مجموعهای از مقررات ضعیف و غیرعلمی نهفته است. در همان مقدمه آمده که هدف، ارائه نقطه شروعی برای آشنایی با ابزارهای هوش مصنوعی و مسائل اخلاقی است، اما به سرعت روشن میشود که این نقطه شروع بدون تکیه بر معیارهای دقیق، اسناد بالادستی ملی و جهانی و تجربیات عملی تدوین شده است. این بیتوجهی به استانداردهای بینالمللی مانند اصول پنجگانه OECD—که شامل رشد فراگیر و پایدار، احترام به حقوق بشر و ارزشهای دموکراتیک، شفافیت و قابلتوضیح بودن، امنیت و پایداری، و مسئولیتپذیری است—و توصیهنامههای یونسکو دربارهٔ رعایت حقوق بشر، عدالت و حفاظت از محیطزیست، به معنای نادیده گرفتن شفافیت، مسئولیتپذیری و رعایت عدالت در استفاده از هوش مصنوعی است. چنین رویکردی، بهجای ایجاد اعتماد و همگرایی، دلنگرانی و تردید را در دل جامعهٔ علمی مینشاند و ضرورت بازنگری عمیق در این سند سرنوشتساز را برجسته میکند.
در ادامه به بررسی دقیق آئیننامه میپردازیم؛ در بخش تعاریف، سند تلاش میکند مفاهیمی چون هوش مصنوعی، یادگیری ماشین، یادگیری عمیق، پردازش زبان طبیعی و حتی اصطلاح مبهم «هوش مصنوعی عمومی» را توضیح دهد، اما این تعاریف بیشتر به توضیح لغوی شبیه است تا تعریف حقوقی و اجرایی. در تعریف هوش مصنوعی، سند صرفاً به این نکته اشاره میکند که AI عمومی میتواند اقداماتی انجام دهد که تا پیش از این فقط توسط انسان امکانپذیر بود، و انواعی از اصطلاحات مانند سیستمهای یادگیری ماشین و یادگیری عمیق را برمیشمرد؛ اما ملاک مشخصی برای تشخیص حد و مرز AI و تمایز بین انواع سیستمها ارائه نمیشود. از این گذشته، سند اصطلاح «هوش مصنوعی عمومی» را تعریف کرده اما رابطه آن با «هوش مصنوعی مولد»، «سیستمهای آزاد» یا «مدلهای زبانی بزرگ» مشخص نشده است؛ این ابهام موجب میشود که مجریان نتوانند در عمل تشخیص دهند که کدام ابزار تحت کدام مقرره قرار میگیرد. نبود دستهبندی مبتنی بر ریسک (که درحال حاضر در مقررات اتحادیه اروپا و بسیاری از چارچوبهای بینالمللی وجود دارد و برای این موارد درنظر گرفته شده است)، باعث میشود همان مقررات برای موارد کمخطر و پرخطر اعمال شود و نتیجۀ آن سردرگمی و اعمال محدودیتهای غیرضروری در پژوهش است.
مشکل اصلی دیگر به فقدان طبقهبندی ریسک و چارچوب قانونی برای دستهبندی ابزارها مربوط میشود. در قوانین اتحادیه اروپا و اصول OECD AI Principles، سیستمهای هوش مصنوعی بر اساس سطح خطر به چند دسته تقسیم میشوند: حداقل خطر، خطر بالا، و ممنوع. کاربردهای کمخطر مانند ابزارهای کمککننده در مطالعه و جستجو، ضوابطی ساده دارند؛ در حالیکه کاربردهای با خطر بالا (مانند گزینش نیروی انسانی در مراکز علمی و دانشگاهی {و به تبع سایر مراکز دولتی}، تصمیمگیری پزشکی، سیستمهای عدالت کیفری) نیازمند نظارت دقیق و ارزیابیهای اخلاقی و حقوقی هستند. در سند مورد نظر نه چنین دستهبندی وجود دارد، نه حتی اشارهای به اینکه چه استفادههایی ممکن است کاملاً ممنوع باشد. همهچیز در یک قالب واحد قرار گرفته و فقط این توصیه آمده که برای دادههای محرمانه و سری باید از «ابزارهای تأییدشده» استفاده شود؛ اما این که کدام ابزارها و بر اساس چه معیارها و شاخصههایی تأیید میشوند، کاملاً نامشخص است. حذف این دستهبندی یعنی قانونگذاران آگاهانه یا از روی سهلانگاری تفاوت میان خطرات بالقوه را نادیده گرفتهاند و این مسئله میتواند به اعمال مقررات سختگیرانه در پروژههای بیخطر یا بالعکس، بیضابطه شدن تصمیمهای پرخطر منجر شود.
در بحث امنیت و ابزارهای مجاز، آییننامه میگوید استفاده از سرویسهای تأییدنشده نقض سیاست محسوب میشود و خرید ابزارها باید پس از بررسی امنیتی انجام گیرد. این جمله در ظاهر درست به نظر میرسد، اما هیچ معیار وضابطهی عملی برای ارزیابی امنیت، حریم خصوصی، حفاظت از داده، شفافیت الگوریتمی و میزان تعصبات وجود ندارد. سند مشخص نمیکند که کمیته یا واحد فناوری بر اساس چه سنجههایی «ابزار مطمئن» را تشخیص میدهد. وحتی اساسا این کمیتهها چگونه تشکیل میشوند؟ چه کسی این کمیته را تشکیل میدهند؟ و چه افرادی؟ به چه تعدادی؟ وبا چه خصوصیات؟ و رزومه؟ و سابقهای؟ عضو این کمیتهها خواهند شد؟ و چه کسی؟ یا نهادی؟ مسئول انتخاب و گزینش این افراد در سراسر دانشگاهها، پژوهشگاهها و غیره خواهد بود؟ و... به عنوان مثال در قوانین یونسکو، بر انجام «ارزیابی تأثیر اخلاقی» و تحلیل آثار بر حقوق بشر، عدالت اجتماعی و محیط زیست تأکید شده است ؛ اما در این آییننامه هیچ سخنی از چگونگی و نحوه ارزیابی اثرات اخلاقی و زیستمحیطی نیست. زمانی که صحبت از «ابزار آفلاین یا ایزوله» میشود، این ابهام وجود دارد که آیا منظور مدلهای بومی است؟ یا مدلهای بینالمللی که در یک محیط محدود اجرا میشوند؟ به علاوه، سند هیچ راهبردی برای توسعه مدلهای بومی یا متنباز ارائه نمیکند و مشخص نمیکند که چگونه میتوان از انتشار دادههای محرمانه به بیرون جلوگیری کرد. نتیجه این ابهامها آن است که پژوهشگران ناچار میشوند برای دریافت خدمات مورد نیاز خود با حدس و گمان ابزارهایی را به کار گیرند و سپس در معرض اتهام قرار گیرند.
یکی از معدود بخشهای نسبتاً مفید سند، طبقهبندی دادهها در پیوست پایانی است که دادهها را به چهار سطح عمومی، حساس یا داخلی، محرمانه و سری تقسیم میکند. اما همین بخش نیز آنچنان سطحی و غیر دقیق است که بیش از آنکه راهگشا باشد، باعث دردسر پژوهشگران میشود. سند توصیه میکند نام و مکان از دادههای حساس حذف شود اما هیچ اشارهای به اصول حریم خصوصی مانند حداقلسازی داده و ناشناسسازی برگشتناپذیر ندارد. در استانداردهای اتحادیه اروپا و یونسکو، تأکید میشود که حذف نام و مکان به تنهایی کافی نیست و باید از روشهای رمزنگاری و حذف ویژگیهای شناساییکننده بهره برد. همچنین این سند نسبت به حقوق مالکیت معنوی و ضرورت احترام به حق مؤلفان بیاعتناست؛ در حالی که ناشران بینالمللی بهطور جدی بر این موضوع تأکید میکنند. عدم وجود سازوکار کنترل دسترسی و ثبت فعالیتها برای دادههای حساس و محرمانه، در عمل میتواند منجر به سوءاستفاده از دادههای پژوهشگران و سوژههای انسانی شود.
مسئله مسئولیتپذیری و تصمیمگیری از دیگر نقاط ضعف اساسی این سند است. آییننامه به طور صریح استفاده از هوش مصنوعی برای تصمیمگیری نهایی در فرایند داوری مقالات را ممنوع میداند. این منع کردن، که از سیاستهای ناشران بزرگ الگو گرفته شده است، اقدامی معقول به نظر میآید چون ابزارهای مولد میتوانند اطلاعات نادرست و جانبدارانه تولید کنند. اما این ممنوعیت فقط به داوری مقالات محدود شده است. هیچ اشارهای به سایر تصمیمهای حساس آموزشی و پژوهشی نیست: پذیرش و رد دانشجو، اعطای بورسیه، استخدام هیئت علمی، ارزیابی عملکرد، اعطای گرنت و موارد مشابه. چرا نباید استفاده از AI برای گزینش دانشجویان یا تصمیمهای مالی ممنوع باشد؟ این بخش با یادداشت چند کلمه، مسئولیت نهایی را بر عهده داور یا ویراستار میگذارد ولی دریغ از ارائه نمودن حتی یک سازوکار مناسب، برای پاسخگویی، جبران خسارت یا رسیدگی به شکایات. چنانچه تصمیمگیری ناشی از AI به خطایی جدی یا تبعیض منجر شود، این آییننامه هیچ راهی برای اصلاح یا جبران در نظر نگرفته است. ضمن آنکه هیچ اشارهای هم به پیوستهای احتمالی آتی نمیکند.
سند در هر بخش حوزهای خود از برخی مجوزها و ممنوعیتها سخن میگوید اما این مقررات به قدری پراکنده و گاه متناقض هستند که پژوهشگر را سردرگم میکند. در حوزه علوم انسانی، استفاده از AI برای تحلیل محتوا، ترجمه و خلاصهسازی مجاز است، اما تولید آثار خلاقانه بدون ذکر استفاده از AI تخلف محسوب میشود. این بند میپذیرد که خروجیها باید توسط پژوهشگر ارزیابی شوند، اما توجهی به سوگیری زبانی و فرهنگی ملی_مذهبی ندارد. مدلهای زبانی بزرگ اغلب مبتنی بر دادههای زبان انگلیسی و فرهنگ غرب هستند و میتوانند ناخودآگاه دیدگاههای حاشیهای را نادیده بگیرند یا تحریف کنند. سند نه راهکاری برای شناسایی و کاهش این سوگیریها ارائه میدهد نه پژوهشگر را به ارزیابی انتقادی زبانی تشویق میکند. در علوم اجتماعی هم وضعیت مشابهی وجود دارد. سند میگوید از AI برای تحلیل دادههای پیمایشی و شبکههای اجتماعی میتوان استفاده کرد، اما باید از تولید پاسخهای جعلی پرسشنامه خودداری شود. پرسش این است که چگونه و با چه روشی پژوهشگر میتواند صحت یا جعلی بودن پاسخها را در سیستمهای پیچیده AI تشخیص دهد؟ هیچ روشی برای نظارت یا ممیزی ارائه نشده است. همچنین از تأثیر سوگیریهای جنسیتی، نژادی و طبقاتی در دادههای آموزش مدل سخنی به میان نمیآید، در حالی که تحقیقات نشان دادهاند مدلهای زبانی بهراحتی این سوگیریها را تقویت میکنند. ضمن اینکه کشف هرگونه سوگیری ماشینی بر عهدهٔ پژوهشگر گذاشته شده، حال آنکه این کار اساساً از وظایف نهادهای تنظیمگر است و نه مسئولیت فرد و پژوهشگر.
در علوم پایه، آییننامه اجازه میدهد که از هوش مصنوعی برای تحلیل دادههای آزمایشگاهی و مدلسازی استفاده شود، مشروط بر اینکه نتایج قابل بازتولید باشند. منع تولید دادهٔ جعلی و تحریف نتایج البته منطقی است. اما سند هیچ اشارهای به انتشار کد و داده به صورت متنباز و شفافیت الگوریتمی ندارد. در مقررات بینالمللی، تأکید میشود که پژوهشگران باید الگوریتمها، دادههای ورودی و معیارهای ارزیابی دقت را گزارش کنند تا دیگران بتوانند نتایج را تکرار نمایند. نبود این الزامات در آئیننامه ایرانی میتواند به تولید نتایج غیرشفاف و غیرقابل بررسی منجر شود، در حالی که ادعای بازتولید وجود دارد.
در حوزه مهندسی و فنی، سند استفاده از AI برای بهینهسازی فرآیندها و تحلیل دادهها را میپذیرد، اما به طور کلی تولید کد یا طراحی مدار توسط AI را بدون بازبینی انسانی ممنوع اعلام کرده است. امروزه بسیاری از تیمها از ابزارهای مولد کد برای تسریع توسعه استفاده میکنند و پس از آن بازبینی انسانی انجام میدهند. در کنار این ممنوعیت، باید معیارهای مشخصی برای ارزیابی صحت و امنیت کد ارائه شود و مسئولیت نهایی بر عهده مهندس بیان میشد. همچنین به تفصیل بیان نشده که چه تفاوتی بین «تولید کد» و «تحلیل کد» یا «تکمیل کد» وجود دارد و این امر میتواند به سلیقهای عمل کردن کمیتهها منجر شود.
بخش هنر و معماری سند بیان میکند که هنرمندان میتوانند از AI در خلق آثار استفاده کنند، به شرط آنکه نقش AI را مشخص کنند. اما سند هیچ نظامی برای رعایت حقوق مولفان اصلی یا افرادی که آثارشان برای آموزش مدلها استفاده شده ارائه نمیدهد. در بسیاری از سیستمهای مولد تصویر و موسیقی، آثار هنرمندان بدون اجازه در مجموعههای داده استفاده میشود؛ این موضوع در جهان مناقشهبرانگیز است و حتی پروندههای حقوقی متعددی علیه شرکتها طرح شده است. عدم توجه به این بحث و نبود راهکاری برای حفاظت از هنرمندان ایرانی نشاندهنده بیاعتنایی تدوینکنندگان به مالکیت فکری است. همچنین سند به نحوه تعیین مالکیت مشترک در آثاری که توسط انسان و AI تولید میشوند نمیپردازد و هنرمندان را در برابر دعاوی احتمالی بیدفاع میگذارد.
در بخش پزشکی و سلامت، سند اجازه میدهد از AI برای تحلیل تصاویر پزشکی و طراحی درمانها استفاده شود، به شرط آنکه متخصص انسانی نتیجه را تأیید کند. این موضوع در ظاهر معقول است، ولی مسئولیت بزرگتری به متخصصین تحمیل میکند بدون آنکه لوازم قانونی و اجرایی آن روشن شده باشد. در کشورهای پیشرفته، هر نوع استفاده از AI در تشخیص بیماری باید مطابق با قوانین سختگیرانه حفظ حریم خصوصی بیماران، قوانین دادههای سلامت و مقررات دستگاههای پزشکی باشد. سند ایرانی هیچ اشارهای به این قوانین جهانی (مانند GDPR و Convention 108+ برای حفاظت از دادههای سلامتی) ندارد و صرفاً میگوید باید مجوز تحقیق و دادهها دریافت شود. به علاوه، به ضرورت انجام مطالعات بالینی، آزمونهای اعتبارسنجی مستقل و انتشار پروتکلها توجه نشده است؛ بنابراین اگر مدلی دقت پایینی داشته باشد یا تبعیض ایجاد کند، هیچ مکانیزم حمایتی پیشبینی نشده است.
یکی از بخشهای به ظاهر مثبت سند، آموزش و توانمندسازی است که برگزاری دورههای آموزش سواد هوش مصنوعی برای اعضای هیئت علمی، دانشجویان و کارکنان را توصیه میکند. با این حال، سند هیچ برنامه و محتوای مشخصی (ولو بصورت کلی) برای این آموزشها پیشبینی نمیکند. صرف بیان «سواد هوش مصنوعی» کافی نیست؛ باید مشخص شود که بصورت کلی چه محتوایی در این دورهها تدریس میشود، چگونه به آموزش اخلاق، شفافیت و مسئولیتپذیری پرداخته میشود، و چگونه افراد یاد میگیرند خروجیهای مدلها را به صورت انتقادی ارزیابی کنند. به علاوه، توسعهدهندگان سیاست آموزشی باید به ایجاد محیطی برای تبادل تجربیات، طرح چالشها و بررسی خطاهای پیشآمده در استفاده از AI توجه کنند. بدون این ساختار، دورهها به سطحینگری و تکرار بدیهیات فروکاسته خواهد شد.
سازوکار نظارت، گزارشدهی و رسیدگی به تخلفات که در سند پیشبینی شده نیز خالی از اشکال نیست. تشکیل کمیتههای تخصصی اخلاق و هوش مصنوعی و استفاده از فرمهای خوداظهاری میتواند گامی به سمت شفافیت باشد، اما جزئیات این کمیتهها نامشخص است؛ ترکیب آنها، سازوکار انتخاب اعضا، و میزان استقلالشان مشخص نشده و امکان اعمال نفوذ و تبعیض و اعمال سلیقه وجود دارد و حتی در صورت اعتراض احتمالی به حکم سلیقهای این کمیتهها، جهت احقاق حق پژوهشگر هیچ پیشبینی خاصی تدارک دیده نشده، که این خطای فاحشی است. همچنین سند میگوید خروجی ابزارهای تشخیص متن AI نمیتواند بهتنهایی مبنای اثبات تخلف باشد؛ این حرف صحیح است زیرا پژوهشها نشان دادهاند که این ابزارها دقت پایینی دارند و ممکن است متون معتبر را به اشتباه «کپی» یا «تولید شده توسط AI» تشخیص دهند. با این حال، سند راهکاری جایگزین ارائه نمیدهد و صرفاً به امکان دفاع اشاره میکند. این وضعیت پژوهشگران را دچار نگرانی میکند، زیرا مشخص نیست چه معیارهایی برای محکوم شدن به کار گرفته میشود و چه نهاد مستقلی بر تصمیم کمیتهها نظارت میکند وبه شکایات احتمالی رسیدگی مینماید و خود این موضوعات جای خالی یک متخصص حقوق فناوری را در جمع تدوین کنندگان سند، بخوبی نشان میدهد.
از منظر حقوقی و علمی، مهمترین نقص این آئیننامه بیتوجهی به اصول جهانی و بینرشتهای است. توصیهنامه یونسکو درباره اخلاق هوش مصنوعی هفت اصل اساسی را مطرح میکند؛ از جمله احترام به حقوق بشر، حاکمیت قانون، دموکراسی و ارزشهای فرهنگی، ترویج عدالت و عدم تبعیض، حفاظت از محیط زیست و تضمین شفافیت، قابل توضیح بودن، مسئولیتپذیری و مشارکت چند ذینفع. در حالیکه سند ایرانی بهجز اشارهای کلی به اخلاق، هیچیک از این اصول را به صورت نظاممند به کار نمیگیرد. اصول OECD AI Principlesنیز بر رشد فراگیر، حقوق بشر، شفافیت، امنیت و پاسخگویی تأکید دارند. همچنین تحقیقات علمی در سالهای اخیر اهمیت شناسایی و کاهش سوگیریها در دادههای آموزشی، شفافیت الگوریتمی، گزارشپذیری و مسئولیت حقوقی در استفاده از AI را برجسته کردهاند. عدم استناد به این منابع علمی و عملی، سند را از اعتبار بینالمللی و قابلیت استناد محروم میکند.
یکی دیگر از ضعفهای بنیادین سند، تصور ایستا از فناوری هوش مصنوعی است. آییننامه به گونهای نوشته شده است که گویی ابزارهای AI مجموعهای از محصولات ثابت و قابل کنترل هستند؛ در حالی که فناوری AI با سرعتی سرسامآور تکامل مییابد، مدلهای جدید در بازه زمانی کوتاه منتشر میشوند و قابلیتهای آنها پیوسته در حال افزایش است. نبود یک سازوکار پویا برای بهروزرسانی مقررات، تطبیق با فناوریهای جدید و جمعآوری بازخورد از اساتید دانشگاه وپژوهشگران باعث خواهد شد که این سند ظرف مدت کوتاهی منسوخ شود. هرچند سند به بازنگری دورهای اشاره کرده است، اما زمانبندی و نحوه انجام آن مشخص نیست و تجربه گذشته نشان داده است که اسناد مشابه سالها بدون اصلاح باقی میمانند. کما اینکه جامعهی علمی و پژوهشی ایران سالهاست که در انتظار دیدن یک آئیننامه (در ارتباط با هوش مصنوعی و پژوهش و آموزش) بودند و حالا که پس از سالها تعلل در انجام این وظیفه، این سند مملو از اشکال منتشر شد، خیال متولیان امر برای سالها راحت خواهد بود که یک سند بالادستی برای این منظور نگارش شده است.
علاوه بر این، ترکیب تدوینکنندگان و مسئولان ذکر شده در ابتدای سند نه تنها متنوع ، تخصصگرا و بینرشتهای نیست، بلکه بیشتر شامل مدیران دولتی و اعضای هیئت علمی حوزههای غیرمرتبط است. حضور متخصصان حوزههای هوشمصنوعی، مطالعات اجتماعی، علوم داده، فلسفه اخلاق، حقوق فناوری در کمیته تدوینکننده به چشم نمیخورد. این موضوع یکی از عوامل اصلی ضعف محتوا است، زیرا کسانی که در زمینههای علمیAI و حقوقی هوش مصنوعی تجربه ندارند تلاش کردهاند سندی جامع تدوین کنند و نتیجه کار، ترکیبی ناموزون از توصیههای کلی، ممنوعیتهای بعضا غیرمنطقی و عباراتی مبهم و موارد در نظر نگرفتهی مهمِ فراوانی شده است.
در نهایت باید گفت که سند «راهنمای استفاده از ابزارهای هوش مصنوعی در پژوهش» در ایران بیش از آنکه بتواند به عنوان نقشه راهی برای توسعه مسئولانه AI تلقی شود، به مانعی تبدیل میشود که پژوهشگران را از استفاده از فناوری بازمیدارد و امکان شکوفایی پژوهشهای بینرشتهای را کاهش میدهد. کمبود تعریفهای دقیق، فقدان طبقهبندی ریسک، نبود معیارهای شفاف برای تأیید ابزارها، نادیدهگرفتن حقوق دادهها و مالکیت فکری، محدود کردن نوآوری در برخی حوزهها و نبود سازوکار ارزیابی وپاسخگویی و حتی تنبیهات و ضمانت اجرا، نشان میدهد که این سند بیشتر به دنبال باز کردن مسئولیت از سر است تا ایجاد یک چارچوب حمایتی و توسعهمحور. برای اصلاح این وضعیت، لازم است که اصول بینالمللی مانند توصیهنامههای یونسکو و OECD AI Principlesو قوانین اتحادیه اروپا به عنوان پایه مطالعات درنظر گرفته شده، ایرانیزه و بومی شود، دستهبندی مبتنی بر ریسک و ارزیابی اثرات اخلاقی اجرا شود، معیارهای شفاف برای تأیید ابزارها تعریف گردد، برنامههای آموزش چندسطحی با محتوای اخلاقی و حقوقی تدوین شود، سازوکارهای نظارت مستقل و پاسخگویی ایجاد گردد، و نمایندگان رشتههای مختلف و جامعه مدنی در فرایند تدوین مشارکت فعال داشته باشند. تنها با چنین اصلاحات بنیادینی است که میتوان امیدوار بود سندی واقعاً «توانمندساز» تدوین شود؛ سندی که به جای ایجاد ترس و محدودیت، به پژوهشگران انگیزه دهد تا از هوش مصنوعی برای حل مسائل علمی و اجتماعی بهره بگیرند، به شرط آنکه اصول اخلاقی، حقوقی و ارزشهای انسانی بهدرستی رعایت شوند.
یکی از جلوههای بارز ناپختگی سند در بخش تعاریف این است که حتی پرکاربردترین واژگان حوزه هوش مصنوعی مانند «مدل مولد»، «مدل زبانی بزرگ»، «یادگیری نظارتشده»، «یادگیری تقویتی» و «سازماندهی مبتنی بر عامل» به طور دقیق تعریف نشدهاند. در ادبیات روز دنیا تفاوتی آشکار میان مدلهای مولد و مدلهای پیشبینیگر وجود دارد؛ مدلهای مولد مانند GPT یا Diffusion قادرند متن، تصویر و دادهی جدید تولید کنند، در حالی که مدلهای پیشبینیگر برای برونیابی روندهای موجود کاربرد دارند. نبود این تمایز ممکن است موجب شود که برخی ابزارهای تحلیلی ساده نیز به خطا در زمره «هوش مصنوعی عمومی» قرار گیرند و بهطور نابجا مشمول محدودیت شوند. همچنین اصولاً عباراتی مانند «هوش مصنوعی عمومی» بهطور رایج به معنای سیستمهایی است که قادر به انجام هر نوع وظیفه شناختی در سطح انسان هستند. چنین سیستمی در حال حاضر وجود ندارد و استفاده از این مفهوم در آئیننامه زمینه را برای سوء برداشت فراهم میکند. به علاوه، مفهوم «ابزار تشخیصی هوش مصنوعی » که در سند آمده است، بدون توضیح دقیق درباره عملکرد، حوزههای کاربرد و محدودیتهایش معرفی شده و این موجب میشود که پژوهشگران نتوانند تفاوت بین یک ابزار صرفاً سنجشی و یک سامانه تصمیمگیر را درک کنند. در استانداردهای جهانی معمولاً طبقهبندی ابزارها بر پایه اهداف و قابلیت توضیحپذیری و میزان مداخله انسانی صورت میگیرد و هر طبقه مقررات متفاوتی دارد؛ این نکته در این سند فراموش شده است.
هرچند که سند از طبقهبندی ریسک سخن نمیگوید، اما در حال حاضر قانون هوش مصنوعی اتحادیه اروپا و دستورالعملهای OECD AI Principlesمجموعهای از مثالهای واقعی برای ردهبندی ریسک ارائه کردهاند. به عنوان نمونه، در دسته «خطر بالا» سیستمهایی قرار میگیرند که در آموزش و پرورش، استخدام، خدمات مالی یا اجرای قانون به کار میروند، زیرا تصمیمهای آنها بر سرنوشت افراد اثر مستقیم دارند. چنین سیستمهایی باید ثبت شوند، تحت نظارت نهادهای مستقل قرار گیرند و ارزیابیهای جامع از منظر تبعیض، دقت و امنیت روی آنها انجام شود. دسته «خطر محدود» شامل سیستمهای تعاملی مانند چتباتها یا سیستمهای توصیهگر محتوا است که باید صرفاً شفافسازی کنند که مخاطب با یک ماشین در تعامل است و حق داشته باشد ارتباط را قطع کند. دسته «خطر پایین» به ابزارهای پشتیبان مانند برنامههای ترجمه یا خلاصهسازی تعلق دارد که تنها توصیههایی ارائه میکنند و تصمیمگیری نهایی با انسان است. در این آئیننامه، هیچ اشارهای به این تفاوتها نیست و صرفاً برای «داده محرمانه» حساسیت نشان داده شده است. فقدان چنین ردهبندی ریسک باعث میشود که نهادهای دانشگاهی نتوانند به صورت نظاممند انتخاب کنند که برای هر پروژه چه میزان ارزیابی یا نظارت لازم است و این امر احتمال بروز آسیبهای ناشی از تصمیمهای ناشیانه را بالا میبرد.
سند در بخش تأیید ابزارها به صراحت اعلام میکند که استفاده از ابزارهای بدون تأیید ممنوع است، اما سازوکار تأیید ابزارها به طور جدی ضعیف است. در عرصه بینالملل، فرایند تأیید شامل ارزیابی امنیت سایبری، پایش پایگاه دادههای آموزشی برای شناسایی محتوای جانبدارانه، تحلیل قابلیت توضیحپذیری مدل و بررسی پیامدهای زیستمحیطی است. کمیتههای نظارتی باید گزارشهایی از اثرات احتمالی ارائه دهند و همچنین شاخصهای عملکرد را به صورت عمومی منتشر کنند تا پژوهشگران بدانند ابزار در چه زمینههایی ضعف دارد. در این سند نه از شفافیت در ارزیابی سخن رفته و نه از انتشار گزارشها. استفاده از واژههایی کلیدی قانونی بدون ذکر هیچ معیار و شاخص عینی، نشان میدهد که فرصت برای فساد، برخورد سلیقهای و عدم پاسخگویی باز است. به علاوه، سند هیچگونه مکانیزمی برای گرفتن بازخورد از کاربران درباره عملکرد و اشکالات ابزارها تعریف نکرده است، در حالی که بهروزرسانی مستمر بر اساس بازخورد یکی از شرطهای موفقیت هر سیستم فناوری است.
کاربست مسئولیتپذیری در حوزه هوش مصنوعی تنها به معنی اعلام مسئولیت انسانی نیست؛ به این معنی است که زنجیرهای از مسئولیتها به وضوح تعریف شوند و نه تنها کاربران، بلکه تولیدکنندگان و توسعهدهندگان ابزارها نیز مسئول پیامدهای محصولاتشان باشند. در این سند فقط گفته شده که داور یا ویراستار مسئول تصمیمگیری است، اما توسعهدهندگان سیستمهای AI مورد استفاده در داوری که ممکن است به دلیل دادههای ناقص یا الگوریتمهای ضعیف نتایج غلط ارائه دهند، هیچ مسئولیتی نمیپذیرند. در نظامهای حقوقی پیشرفته، بخشی از مسئولیت متوجه تولیدکننده است و قوانین ایمنی محصول شامل هوش مصنوعی نیز میشود. علاوه بر این، مسئولیتپذیری مستلزم وجود سازوکاری برای اعتراض و جبران خسارت است. اگر پژوهشگری به علت یک خطای سیستم AI رد یا متهم به تخلف شود، باید بتواند از طریق یک فرایند شفاف اعتراض کند، پروندهاش توسط کمیتهای مستقل بررسی شود و در صورت اثبات خطای سیستم، خسارتهای معنوی و مالی جبران گردد. این سازوکارها در آییننامه غایب است.
در مجموعه انتقادات فوق، نکته مشترک آن است که آییننامه به جای آنکه سندی راهبردی و آیندهنگر باشد، بیشتر شبیه مجموعهای از توصیههای پراکنده و ابهامبرانگیز است که میتواند مانع پیشرفت پژوهش و نوآوری شود. تدوینکنندگان باید با استفاده از تجارب بینالمللی و خرد جمعی جامعه علمی داخلی و خارجی، سندی جامع، شفاف و انعطافپذیر تدوین کنند که نه تنها از سوءاستفادهها جلوگیری کند، بلکه دست پژوهشگران را برای استفاده خلاقانه از هوش مصنوعی باز بگذارد. این امر مستلزم مشارکت فعال ذینفعان، متخصصان عرصه هوش مصنوعی و حقوقدانان خبره جهت ایجاد بسترهای گفتوگو، بازنگری مداوم و تأکید بر ارزشهایی است که همسو با استانداردهای جهانی باشد. تنها در این صورت است که میتوان هم از فرصتهای بینظیر هوش مصنوعی بهره برد و هم از جامعه و افراد در برابر خطرات آن محافظت نمود.
......................
پایان پیام
نظر شما