نگرانی دیده‌بان حقوق‌بشر از توسعه روبات‌های قاتل

کد خبر: 864049

دیده‌بان حقوق بشر امروز دوشنبه از کشور‌های مشارکت‌کننده در نشست آتی سازمان ملل متحد در ژنو خواست تا درباره قانون بین‌المللی جدیدی که سیستم‌های تسلیحاتی کاملا مستقل موسوم به "روبات‌های قاتل" را ممنوع می‌کند، ارتقا دهند.

نگرانی دیده‌بان حقوق‌بشر از توسعه روبات‌های قاتل
ایسنا: به نقل از خبرگزاری اسپوتنیک، "کنوانسیون تسلیحات متعارف مشخص" (CCW) و گروه "کارشناسان دولتی سیستم‌های تسلیحاتی خودکار کشنده" (GGE) اواخر امروز در ژنو درباره چالش‌های مرتبط با تسلیحات خودکار مرگبار تشکیل جلسه خواهند داد. راشا عبدالرحیم، محقق و مشاور در حوزه هوش مصنوعی و حقوق بشر در دیده‌بان حقوق بشر در بیانیه‌ای گفت: ربات‌های قاتل دیگر چیز‌های علمی تخیلی نیستند. از هواپیما‌های بدون سرنشین با هوش مصنوعی تا سلاح‌های اتوماتیک که خودشان می‌توانند اهدافشان را انتخاب کنند، پیشرفت‌های تکنولوژیکی در حوزه تسلیحاتی بسیار فراتر از سرعت قوانین بین‌المللی حرکت می‌کند. ما به سمت آینده‌ای حرکت می‌کنیم که در آن انسان‌ها می‌توانند از فرایند تصمیم‌گیری در مورد استفاده از زور حذف شوند. دیده‌بان حقوق بشر در ۲۱ اوت با انتشار گزارشی تحت عنوان "توجه: دستوری اخلاقی و حقوقی برای منع روبات‌های قاتل" تاکید کرد تسلیحات کاملا مستقل نقض یکی از بنودی است که اولین بار در سال ۱۸۹۹ در یکی از کنوانسیون‌های هیگ ذکر شد. مفاد این بند در حمایت از اشخاصی است که در یک درگیری مسلحانه گیر افتاده‌اند و در پوشش توافق‌های بین‌المللی جای نمی‌گیرند. این جنگ‌افزار‌های مرگبار می‌توانند ماشین‌هایی باشند که مستقل هدفگیری و تیراندازی می‌کنند. پهپاد‌ها و زیردریایی‌های بی‌سرنشین نیز جزو همین جنگ‌افزار‌ها هستند. ویژگی آن‌ها این است که در مأموریت‌های جنگی از سوی انسان‌ها هدایت نمی‌شوند، بلکه بطور مستقل تصمیم می‌گیرند که کدام هدف مشروع است و سپس شلیک می‌کنند. آیا باید چنین جنگ‌افزار‌هایی را ممنوع کرد؟ به گزارش اشپیگل آنلاین، از امروز (۲۷ اوت) نمایندگان بیش از ۷۵ کشور جهان در شهر ژنو سوئیس گرد هم می‌آیند تا در این باره رایزنی کنند. آماندیپ گیل، سفیر هند و رئیس این نشست مشورتی در آغاز سال جاری گفته بود که "نباید این امر را به شکل درام درآورد و روبات‌ها بر جهان مسلط نخواهند شد". اما منتقدان هشدار می‌دهند. توماس کوشن‌مایستر، عضو آلمانی "کارزار بین‌المللی علیه روبات‌های قاتل" معتقد است که جنگ‌افزار‌ها قادر به تشخیص دوست از دشمن نیستند و باید آن‌ها را از نظر حقوق بین‌المللی به دقت سنجید. به گفته‌ی او، این تصمیم که به زندگی یک انسان پایان داده شود، هرگز نباید به یک ماشین واگذار شود. جنگ‌افزار‌های مستقل از طریق توسعه شتابنده هوش مصنوعی ممکن شده‌اند. کامپیوتر‌ها از راه داده‌های تزریق شده می‌آموزند که یک هدف چگونه به نظر می‌رسد، چگونه حرکت می‌کند و چه زمانی باید به آن شلیک کرد و این کار را بدون شرکت انسان در تصمیم‌گیری انجام می‌دهند. جنگ‌افزار‌های مستقل را برای نمونه باید از موشک‌های "پاتریوت" متمایز کرد. این موشک‌ها هم بطور اتوماتیک شلیک می‌شوند، اما هدف آن‌ها باید پیش‌تر توسط انسان دقیق برنامه‌ریزی شده باشد. میشائیل بیونتینو که تا چندی پیش نماینده آلمان در نهاد خلع سلاح در ژنو بود، می‌گوید: جنگ‌افزار‌های مستقل هدف را خودشان انتخاب می‌کنند و دارای بانکی اطلاعاتی از اهداف نیستند. البته باید خاطر نشان کرد که مرز میان سیستم‌های اتوماتیک و مستقل سیال است. دیگر جای تردیدی نیست که کشور‌هایی مانند ایالات متحده آمریکا، روسیه، چین، کره جنوبی و بریتانیا و دولت اسرائیل مشغول کار روی چنین سیستم‌هایی هستند. نایل داویسون عضو کمیتهی بین‌المللی صلیب سرخ معتقد است که این سیستم‌ها هم‌اکنون نیز وجود دارند. او که ناظر رعایت حقوق بین‌الملل انسانی مصرح در کنوانسیون معتبر ژنو است، از توسعه این سیستم‌ها ابراز نگرانی می‌کند. در کنوانسیون ژنو آمده است: «حملات باید اکیدا به اهداف نظامی محدود باشند». اما آیا ماشین‌ها قادر به تصمیم‌گیری در این باره هستند؟ داویسون معتقد است که انسان‌ها باید کنترل کافی در اختیار داشته باشند تا بتوانند تصمیمات مشروع بگیرند. اما جنگ‌افزار‌های مستقل و روبات‌های آدمکش با خود تردید‌ها و پرسش‌های زیادی می‌آورند: ـ. آیا آن‌ها می‌توانند تشخیص دهند که یک دشمن هم‌اکنون می‌خواهد خود را تسلیم کند یا زخمی شده است؟ ـ. آیا می‌توانند تشخیص دهند انسانی که شناسایی شده و سلاح در دست دارد، یک سرباز است یا یک شکارچی؟ ـ. آیا می‌توانند تشخیص دهند که سرباز شناسایی شده از نیرو‌های خودی است؟ ـ. چه کسی مسئول و پاسخگوی جنایت‌هایی خواهد بود که توسط این جنگ‌افزار‌ها صورت می‌گیرد و انسان کنترلی بر آن‌ها ندارد؟ میشائیل بیونتینو می‌گوید سیاست جمهوری فدرال آلمان در این زمینه کاملا روشن است: تصمیم برای زندگی و مرگ نباید به یک ماشین واگذار شود. به گفته او این مساله حتی در قرارداد دولت ائتلافی آلمان نیز تصریح شده است: «ما با سیستم‌های تسلیحاتی مستقل که تحت کنترل انسان نباشند مخالفیم و خواهان تقبیح جهانی آن‌ها هستیم.» آلمان مشترکا به همراه فرانسه اصل و عرفی رفتاری پیشنهاد کرده است که بر مبنای آن همه سیستم‌های تسلیحاتی امروز یا آینده باید تحت کنترل انسان باشند. اما توماس کوشن‌مایستر، عضو "کارزار بین‌المللی علیه روبات‌های آدمکش" این اصل رفتاری را "ببر بی‌دندان" می‌خواند و معتقد است که چنین عرفی از نظر حقوق بین‌الملل تعهدآور نیست. به همین دلیل سازمان او خواهان یک قرارداد متعهدکننده و الزام‌آور است. اما به گفته کوشن‌مایستر، بسیاری از کشور‌ها نمی‌خواهند سیستم‌های تسلیحاتی خود را محدود کنند. به همین دلیل در مذاکرات بین‌المللی هیچ تعجیلی نشان نمی‌دهند. بیش از ۲۰۰۰ دانشمند که در حوزه هوش مصنوعی فعالیت می‌کنند، این جنگ‌افزار‌ها را محکوم کرده‌اند. آنان در فراخوانی از جمله نوشته‌اند: یک مولفه‌ی اخلاقی وجود دارد. ما نباید تصمیم‌گیری درباره زندگی و مرگ را به ماشین‌ها واگذار کنیم. این دانشمندان قول داده‌اند که هرگز در توسعه و تولید این‌گونه جنگ‌افزار‌ها همکاری نکنند و از شرکت‌های فن‌آوری نیز خواسته‌اند که همین قول را بدهند.
۰

دیدگاه تان را بنویسید

 

اخبار مرتبط سایر رسانه ها

    تمامی اخبار این باکس توسط پلتفرم پلیکان به صورت خودکار در این سایت قرار گرفته و سایت فردانیوز هیچگونه مسئولیتی در خصوص محتوای آن به عهده ندارد

    نیازمندیها

    تازه های سایت

    سایر رسانه ها

      تمامی اخبار این باکس توسط پلتفرم پلیکان به صورت خودکار در این سایت قرار گرفته و سایت فردانیوز هیچگونه مسئولیتی در خصوص محتوای آن به عهده ندارد