بابک نگاهداری: هوش مصنوعی امکان تحقق شرافت اخلاقی در رسانه را فراهم میکند
بابک نگاهداری در سومین همایش «هوشمصنوعی و رسانه با محوریت حکمرانی رسانه در عصر هوشمصنوعی» عنوان کرد: هوش مصنوعی با ایجاد ظرفیت در شناخت اخبار جعلی، امکان تحقق شرافت اخلاقی در رسانهها را فراهم میکند.
بابک نگاهداری، رئیس مرکز پژوهشهای مجلس شورای اسلامی در سومین همایش «هوشمصنوعی و رسانه با محوریت حکمرانی رسانه در عصر هوشمصنوعی» که امروز (دوشنبه 25 دیماه) برگزار شد، با اشاره به ظرفیتها و چالشهای هوشمصنوعی، اظهار کرد: برای مواجهه و بهکارگیری هوشمصنوعی باید تدابیر سنجیده و پیشگیرانه را به کار بگیریم.
رئیس مرکز پژوهشهای مجلس به مخاطرات هوشمصنوعی اشاره و تصریح کرد: با توجه به اینکه هوشمصنوعی، ابزاری دادهمبنا بوده و میتواند الگوریتمسازی کند، یادگیری و پیشبینی را امکانپذیر میکند.
نگاهداری با اشاره به اینکه انبوه زیادی داده در زندگی انسانها وجود دارد، گفت: این دادهها با قابلیتهایی که هوشمصنوعی دارد، میتواند نظام حکمرانی را در راستای ارتقای کارآمدی، تغییر دهد.
اثرگذاری هوشمصنوعی در همه سطوح نظام حکمرانی
رئیس مرکز پژوهشهای مجلس با اعلام اینکه بهکارگیری هوشمصنوعی باعث افزایش بهرهوری، کیفیت و سرعت در عرصه خدمات خصوصی نیز میشود و در واقع همه سطوح نظام حکمرانی تحتتأثیر این ابزار قرار خواهد گرفت، اضافه کرد: تقریباً همه کشورها بهنحوی با هوشمصنوعی ارتباط برقرار کردهاند، برخی بهطور کلی آن را انکار و برخی دیگر بیشتر امور خود را به آن سپردهاند. در کشور ما نیز در چند سال اخیر فعالیتهایی در این زمینه انجام شده که نظام حکمرانی ما را تحتتأثیر قرار داده است.
نگاهداری با ارائه آماری در خصوص پرداختن به هوشمصنوعی در دانشگاهها و پژوهشگاهها، افزود: ۱۷۲ دانشجوی دوره دکتری و ۱۳۵۸ دانشجوی کارشناسیارشد تاکنون در عرصه هوشمصنوعی فعالیت کردهاند یا آموزش دیدهاند. همچنین ۴۵۲ شرکت دانشبنیان و ۶ پژوهشگاه یا پژوهشکده بهطور مستقیم از هوشمصنوعی استفاده میکنند. بنابراین نیروی انسانی توانمندی در زمینه بهکارگیری این ابزار در کشور تربیت شده است.
مشارکت مرکز پژوهشهای مجلس در ایجاد قوانین هوشمصنوعی
وی به قوانین مصوب شده از سوی مجلس در زمینه هوشمصنوعی اشاره کرد و گفت: همچنین نهادهایی مانند شورای عالی انقلاب فرهنگی، نهاد ریاست جمهوری و... بخشی از زیربنای تقنین و اجرایی برای بهکارگیری هوشمصنوعی را ایجاد کردهاند.
نگاهداری تصریح کرد: بنابراین اگر اراده حکمرانی کشور به سمت بهکارگیری هوشمصنوعی حرکت کند، شرایط استفاده از آن از نظر تقنین، نیروی انسانی متخصص و زیرساخت فنی، تا حدودی آماده شدهاست.
وی به چالشهای ناشی از توسعه فناوری هوشمصنوعی در عرصههای مختلف اجتماع اشاره کرد و گفت: هوشمصنوعی در حوزه کسب و کار، در زمینه شکافهای دیجیتالی ناشی از دسترسی به داده، شفافیت و مشارکت بیشتر مردم در عرصه سیاست، اثرگذار خواهد بود.
رئیس مرکز پژوهشهای مجلس با اشاره به تدوین و انتشار ۱۲ یا ۱۳ گزارش تخصصی در این مرکز در حوزه هوشمصنوعی، گفت: آخرین گزارش با عنوان نگاشت نهادی و تقسیمکار ملی در حوزه توسعه هوشمصنوعی و حکمرانی دادهمحور بوده است. همچنین باتوجه به اینکه در لایحه برنامه هفتم توسعه، بخشی به هوشمصنوعی اختصاص نیافته بود، ما پیشنهاد ایجاد موادی در این برنامه در خصوص این ابزار به کمیسیون تلفیق ارائه دادیم که در برنامه هفتم گنجانده شد.
ضرورت شفافیت الگوریتمهای هوشمصنوعی
نگاهداری با بیان اینکه نیاز است در حوزه رسانه، هوشمصنوعی در نظام تقنین و مقررات تمرکز بیشتری داشته باشیم، اضافه کرد: در قوانین جدید باید به تضمین شفافیت الگوریتمهای هوشمصنوعی را در عرصه رسانه مورد توجه قرار دهیم. تصمیمات در این زمینه به انتشار و دسترسی به اطلاعات با عدالت و بدون تبعیض ارتباط دارد.
وی در ادامه به مسئولیت رسانهها درباره عملکرد هوشمصنوعی اشاره کرد و افزود: ممکن است در بهکارگیری هوشمصنوعی در رسانه، اشتباهاتی رخ دهد که برای جبران خسارت و عمل به تعهدات از سوی رسانهها، باید برنامهریزی صورت گیرد.
رئیس مرکز پژوهشهای مجلس ادامه داد: یکی از چالشهای مهم هوشمصنوعی، نحوه حفظ حریم خصوصی و جلوگیری از استفاده ناخواسته از دادههای شخصی است. همچنین باید بتوانیم بین مصالح مختلف افراد، آزادی بیان، هویت فرهنگی، حقوق مالکیت فکری و... تعادل برقرار کنیم.
اهمیت حضور بینالمللی ایران در هوشمصنوعی
نگاهداری با تاکید بر اینکه ضرورت دارد با کشورهای مختلف در زمینه استفاده از هوشمصنوعی وارد تعامل شویم، گفت: پیشنهاد ما این است که جمهوری اسلامی ایران در کنسرسیومها و اجلاسهای بینالمللی حضور جدی داشته باشد تا بتوانیم منافع کشورمان را در این حوزه حفظ کنیم.
نگاهداری در ادامه به مخاطرات هوشمصنوعی در عرصه رسانه اشاره کرد و گفت: هوشمصنوعی از الگوریتمهای ریاضی و آماری استفاده میکند؛ درحالیکه تحلیل محتوا در رسانه باید با درک از مفاهیم انسانی باشد. از سوی دیگر آموزش و تمرین مدلهای هوشمصنوعی نیاز به دادههای وسیع دارد که محدودیت دسترسی به اطلاعات شخصی و خصوصی در این زمینه چالشهایی را ایجاد میکند.
وی افزود: چالش دیگر در بهکارگیری هوشمصنوعی در عرصه رسانه، مداخلات در تحقیقات رسانهای است؛ بنابراین باید قوانین حریم خصوصی، مالکیت فکری و انتشار محتوا در این زمینه به درستی رعایت شود.
هوشمصنوعی و صیانت از شرافت رسانهای
رئیس مرکز پژوهشهای مجلس با تأکید بر اینکه باید نگاه تسهیلگر و نوآورانه در عرصه هوشمصنوعی داشتهباشیم، گفت: این ابزار امکاناتی نظیر شناسایی اخبار جعلی و جامعیت بخشی به اطلاعات صحیح را در اختیار رسانهها قرار میدهد که ظرفیت قابل توجهی در تحقق شرافت اخلاقی است.
نگاهداری ادامه داد: صیانت از شرافتهای اخلاقی در هر حوزهای اهمیت دارد. در حوزه رسانه نیز زمانی میتوان شرافت رسانه را حفظ کرد که اطلاعات صحیح را در اختیار مردم قرار دهیم.
وی تأکید کرد: نوع و جنس تدبیر ما باید در راستای حفظ شرافت باشد چراکه هر کاری با شرافت زیباست./خانه ملت
دیدگاه تان را بنویسید