ایسنا: به نقل از خبرگزاری اسپوتنیک، "کنوانسیون تسلیحات متعارف مشخص" (CCW) و گروه "کارشناسان دولتی سیستمهای تسلیحاتی خودکار کشنده" (GGE) اواخر امروز در ژنو درباره چالشهای مرتبط با تسلیحات خودکار مرگبار تشکیل جلسه خواهند داد. راشا عبدالرحیم، محقق و مشاور در حوزه هوش مصنوعی و حقوق بشر در دیدهبان حقوق بشر در بیانیهای گفت: رباتهای قاتل دیگر چیزهای علمی تخیلی نیستند. از هواپیماهای بدون سرنشین با هوش مصنوعی تا سلاحهای اتوماتیک که خودشان میتوانند اهدافشان را انتخاب کنند، پیشرفتهای تکنولوژیکی در حوزه تسلیحاتی بسیار فراتر از سرعت قوانین بینالمللی حرکت میکند. ما به سمت آیندهای حرکت میکنیم که در آن انسانها میتوانند از فرایند تصمیمگیری در مورد استفاده از زور حذف شوند. دیدهبان حقوق بشر در ۲۱ اوت با انتشار گزارشی تحت عنوان "توجه: دستوری اخلاقی و حقوقی برای منع روباتهای قاتل" تاکید کرد تسلیحات کاملا مستقل نقض یکی از بنودی است که اولین بار در سال ۱۸۹۹ در یکی از کنوانسیونهای هیگ ذکر شد. مفاد این بند در حمایت از اشخاصی است که در یک درگیری مسلحانه گیر افتادهاند و در پوشش توافقهای بینالمللی جای
نمیگیرند. این جنگافزارهای مرگبار میتوانند ماشینهایی باشند که مستقل هدفگیری و تیراندازی میکنند. پهپادها و زیردریاییهای بیسرنشین نیز جزو همین جنگافزارها هستند. ویژگی آنها این است که در مأموریتهای جنگی از سوی انسانها هدایت نمیشوند، بلکه بطور مستقل تصمیم میگیرند که کدام هدف مشروع است و سپس شلیک میکنند. آیا باید چنین جنگافزارهایی را ممنوع کرد؟ به گزارش اشپیگل آنلاین، از امروز (۲۷ اوت) نمایندگان بیش از ۷۵ کشور جهان در شهر ژنو سوئیس گرد هم میآیند تا در این باره رایزنی کنند. آماندیپ گیل، سفیر هند و رئیس این نشست مشورتی در آغاز سال جاری گفته بود که "نباید این امر را به شکل درام درآورد و روباتها بر جهان مسلط نخواهند شد". اما منتقدان هشدار میدهند. توماس کوشنمایستر، عضو آلمانی "کارزار بینالمللی علیه روباتهای قاتل" معتقد است که جنگافزارها قادر به تشخیص دوست از دشمن نیستند و باید آنها را از نظر حقوق بینالمللی به دقت سنجید. به گفتهی او، این تصمیم که به زندگی یک انسان پایان داده شود، هرگز نباید به یک ماشین واگذار شود. جنگافزارهای مستقل از طریق توسعه شتابنده هوش مصنوعی ممکن شدهاند.
کامپیوترها از راه دادههای تزریق شده میآموزند که یک هدف چگونه به نظر میرسد، چگونه حرکت میکند و چه زمانی باید به آن شلیک کرد و این کار را بدون شرکت انسان در تصمیمگیری انجام میدهند. جنگافزارهای مستقل را برای نمونه باید از موشکهای "پاتریوت" متمایز کرد. این موشکها هم بطور اتوماتیک شلیک میشوند، اما هدف آنها باید پیشتر توسط انسان دقیق برنامهریزی شده باشد. میشائیل بیونتینو که تا چندی پیش نماینده آلمان در نهاد خلع سلاح در ژنو بود، میگوید: جنگافزارهای مستقل هدف را خودشان انتخاب میکنند و دارای بانکی اطلاعاتی از اهداف نیستند. البته باید خاطر نشان کرد که مرز میان سیستمهای اتوماتیک و مستقل سیال است. دیگر جای تردیدی نیست که کشورهایی مانند ایالات متحده آمریکا، روسیه، چین، کره جنوبی و بریتانیا و دولت اسرائیل مشغول کار روی چنین سیستمهایی هستند. نایل داویسون عضو کمیتهی بینالمللی صلیب سرخ معتقد است که این سیستمها هماکنون نیز وجود دارند. او که ناظر رعایت حقوق بینالملل انسانی مصرح در کنوانسیون معتبر ژنو است، از توسعه این سیستمها ابراز نگرانی میکند. در کنوانسیون ژنو آمده است: «حملات باید اکیدا به
اهداف نظامی محدود باشند». اما آیا ماشینها قادر به تصمیمگیری در این باره هستند؟ داویسون معتقد است که انسانها باید کنترل کافی در اختیار داشته باشند تا بتوانند تصمیمات مشروع بگیرند. اما جنگافزارهای مستقل و روباتهای آدمکش با خود تردیدها و پرسشهای زیادی میآورند: ـ. آیا آنها میتوانند تشخیص دهند که یک دشمن هماکنون میخواهد خود را تسلیم کند یا زخمی شده است؟ ـ. آیا میتوانند تشخیص دهند انسانی که شناسایی شده و سلاح در دست دارد، یک سرباز است یا یک شکارچی؟ ـ. آیا میتوانند تشخیص دهند که سرباز شناسایی شده از نیروهای خودی است؟ ـ. چه کسی مسئول و پاسخگوی جنایتهایی خواهد بود که توسط این جنگافزارها صورت میگیرد و انسان کنترلی بر آنها ندارد؟ میشائیل بیونتینو میگوید سیاست جمهوری فدرال آلمان در این زمینه کاملا روشن است: تصمیم برای زندگی و مرگ نباید به یک ماشین واگذار شود. به گفته او این مساله حتی در قرارداد دولت ائتلافی آلمان نیز تصریح شده است: «ما با سیستمهای تسلیحاتی مستقل که تحت کنترل انسان نباشند مخالفیم و خواهان تقبیح جهانی آنها هستیم.» آلمان مشترکا به همراه فرانسه اصل و عرفی رفتاری پیشنهاد کرده است
که بر مبنای آن همه سیستمهای تسلیحاتی امروز یا آینده باید تحت کنترل انسان باشند. اما توماس کوشنمایستر، عضو "کارزار بینالمللی علیه روباتهای آدمکش" این اصل رفتاری را "ببر بیدندان" میخواند و معتقد است که چنین عرفی از نظر حقوق بینالملل تعهدآور نیست. به همین دلیل سازمان او خواهان یک قرارداد متعهدکننده و الزامآور است. اما به گفته کوشنمایستر، بسیاری از کشورها نمیخواهند سیستمهای تسلیحاتی خود را محدود کنند. به همین دلیل در مذاکرات بینالمللی هیچ تعجیلی نشان نمیدهند. بیش از ۲۰۰۰ دانشمند که در حوزه هوش مصنوعی فعالیت میکنند، این جنگافزارها را محکوم کردهاند. آنان در فراخوانی از جمله نوشتهاند: یک مولفهی اخلاقی وجود دارد. ما نباید تصمیمگیری درباره زندگی و مرگ را به ماشینها واگذار کنیم. این دانشمندان قول دادهاند که هرگز در توسعه و تولید اینگونه جنگافزارها همکاری نکنند و از شرکتهای فنآوری نیز خواستهاند که همین قول را بدهند.
دیدگاه تان را بنویسید