خبرگزاری صدای افغان(آوا) - سرویس بین الملل: حجتالاسلام والمسلمین داکتر حمید شهریاری، که بهمنظور شرکت در بیستوششمین مجمع فقه اسلامی به قطر سفر کرده است، با بیان دیدگاهها و ملاحظاتی در خصوص سخنرانیهای اشتراککنندگان درباره احکام و ضوابط اخلاقی هوش مصنوعی، گفت: فهرست آسیبهای هوش مصنوعی نیازمند چارچوبی منطقی و ساختاری است که ابعاد فنی، اخلاقی، اجتماعی، اقتصادی و اعتقادی را دربر گیرد.
به گزارش روابط عمومی مجمع جهانی تقریب مذاهب اسلامی، وی افزود: صرفِ ذکر آسیبها گرچه ضروری است، اما کافی نیست؛ بلکه باید بهصورت گستردهتری تهدیدات وجودی و فلسفی، بهویژه در سطح آیندهپژوهانه، بیان گردد و با شواهد واقعی و مصادیق عینی مستند شود. از جمله این تهدیدات میتوان به سناریوهای مرتبط با فراهوش مصنوعی (Superintelligence)، عدم امکان کنترول درازمدت بر سامانههای هوشمند مستقل و واگذاری تصمیمات سرنوشتساز به سامانههای فاقد مسئولیت و حکومتهای غیرپاسخگو اشاره کرد.
حجتالاسلام والمسلمین شهریاری تأکید کرد که باید نسبت به کاربردهای فعلی این فناوری نیز حساسیت بیشتری نشان داد. سلاح هوشمندی که در ترور شهید یحیی السنوار و شهید اسماعیل هنیه بهکار رفت، باید در این کنفرانس بهصورت جدی پیگیری شود و اقدامات رژیم صهیونیستی در این زمینه محکوم گردد. این رژیم غاصب، دارای سلاحهای هستهای، شیمیایی و هوشمند است، و بر عهده مجامع فقهی میباشد تا حرمت بهکارگیری این سلاحها را تبیین نمایند. این کاربردها امنیت جهانی را بهطور جدی به خطر انداخته، صلح عادلانه را خدشهدار کرده و کرامت انسانی را زیر پا میگذارند.
دبیرکل مجمع خاطرنشان ساخت: استفاده از منابع بینالمللی معتبر برای شناخت موضوع و درک ابعاد آن یک ضرورت است. از جمله این منابع میتوان به سند IEEE در خصوص اخلاق هوش مصنوعی (سال ۲۰۱۹)، گزارش یونسکو در مورد اخلاق هوش مصنوعی (سال ۲۰۲۱) که توسط استاد داکتر یاسر عجیل النشمی نیز در سخنان خود به آن اشاره شد، و قانون اتحادیه اروپا در زمینه هوش مصنوعی اشاره کرد. این منابع چارچوبهایی دقیق و قابل مقایسه برای ارزیابی آسیبها و خطرات فراهم میکنند.
وی در پایان اتخاذ رویکرد تحلیلی و مسألهمحور بهجای صرفاً رویکرد خطابی و هشداردهنده را ضروری دانسته، افزود: استفاده از تعابیری چون: «هوش مصنوعی وسیلهای برای کشتار، فریب و تدلیس است» بیشتر جنبه هشداردهنده دارد تا تحلیلی. چنین زبانی ممکن است برای مخاطبان علمی یا بینالمللی قناعتبخش نباشد و نیازمند بازنویسی در چارچوب تحلیلهای نهادی و روشمند باشد. همچنین، با اینکه اشاره به مفاهیمی چون تبعیض الگوریتمی، نبود شفافیت و ضعف مسئولیتپذیری قابل قدر است، اما کافی نیست؛ بلکه باید به تحلیل دقیق سازوکارهای تخنیکی پشت این آسیبها پرداخت، مانند ساختار شبکههای عصبی، یادگیری ماشین و ماهیت دادههای مورد استفاده در آموزش و کلاندادهها. در نهایت، تمام این موارد باید بهگونهای بررسی شود که کرامت انسانی حفظ گردد و از ماشینی شدن جامعه بشری جلوگیری بهعمل آید.