تحقیقات دانشمندان دانشگاه بوفالو نشان داده که عجله برای ممنوع کردن و بد جلوه دادن سلاحهای خودمختار یا "ربات‌های قاتل"، راهکاری موقتی است و مشکل اصلی، ورود جامعه به موقعیتی است که سیستم‌هایی مانند این ربات‌ها در آن ممکن می‌شوند.

به گزارش مرور نیوز به نقل از فیزورگ، ربات‌های قاتل در مرکز داستان‌های فیلم‌هایی مانند ترمیناتور یا جنگ ستارگان قرار دارند، اما ایده عملکرد خودکار سلاخ‌های خودمختار نسبت به سازمان‌های بشری تنها در اختیار نویسندگان داستان‌های علمی تخیلی نیست.

در حال حاضر بودجه‌ای از پنتاگون و گروهی از سازمان‌های غیردولتی مانند سازمان دیده‌بان حقوق بشر در حال کار برای متوقف ساختن توسعه این نوع ربات‌ها هستند.

اداره و کنترل سیستم‌هایی مانند ربات‌های قاتل باید فراتر از محصولات نهایی صورت بگیرد.

به گفته محققان،‌ باید اصطلاح ربات قاتل به تکنیک‌های فرهنگی کوچکتر تغییر یابد. محققان باید به بررسی تاریخچه یادگیری ربات‌ها، شناسایی الگو و مدلسازی پیش‌بینی و چگونه درک شدن این مفاهیم توسط این سیستم‌ها بپردازند. با انجام این بررسی‌ها می‌توان به سوالاتی که عصر آینده اتوماسیون، هوش مصنوعی و رباتیک را توصیف می‌کنند، پاسخ داد.

تکنیک‌های فرهنگی، اصولی هستند که به توسعه تحولات علمی منجر می‌شوند. این تکنیک‌ها که در اصل به کشاورزی مرتبط هستند، زمانی برای کشت و فرآیندها، کارگران و اقدامات لازم برای ارائه زمین مولد و قابل سکونت استفاده می‌شدند. اما در نظریه رسانه، رویکرد تکنیک‌های فرهنگی در بخش‌های مختلف کار و زنجیره‌های متعدد تکاملی اندیشه، فناوری، تصور، تولید دانش و چگونگی تبدیل این شیوه‌ها به سیستم‌های واقعی، محصولات و مفاهیم مورد توجه است.

شاید در حال حاضر، صحبت ‌در مورد ربات‌های قاتل به نظر تخیلی باشد اما سازمان‌ها در سراسر جهان در حال کار برای ساخت سیستم‌های خودکار و جلوگیری از تبدیل آن‌ها به ربات‌های قاتل هستند.

پنتاگون بودجه‌ای به میزان 18 میلیارد دلار برای ساخت سیستم‌ها و فناوری‌هایی اختصاص داده که می‌توانند پایه سلاح‌های کاملا خودکار را تشکیل بدهند که بطور خودمختار به جستجو، شناسایی و حمله به دشمن خواهند پرداخت.

نخستین اعتراض دیپلماتیک در این حوزه بالقوه جنگ ماشینی در سال 2012 انجام شد که در آن گروهی از سازمان‌های غیردولتی یک کمپین به نام "ربات‌های قاتل را متوقف کنید" را برای جلوگیری از توسعه چنین سلاح‌هایی تشکیل دادند. اما محققان معتقدند که در مورد ترکیب‌بندی تهدید واقعی باید تجدید نظر کرد.

تصور کنید هر دو سیتم‌های نرم‌افزاری و اخلاقی بر اساس قوانین خاص عمل کنند. باید در نظر گرفت که آیا می‌توان سیستم‌های اخلاقی مبتنی بر قوانین را در نرم‌افزار کدگذاری کرد؟

خودروهای خودران بر اساس قوانین جاده عمل می‌کنند اما سلاح‌های خودمختار باید بتوانند بین دوست و دشمن تمایز قائل شوند و مهمتر اینکه بدانند چه زمانی ممکن است آن‌ها به نقش دیگری در بیایند.

محققان می‌گویند: ما نباید بر آنچه از لحاظ فنی ممکن است، تمرکز کنیم، بلکه باید انگیزه‌های ایدئولوژیکی، فرهنگی و سیاسی که این توسعه‌های فنی را هدایت می‌کنند، بررسی کنیم.

این یافته‌ها در مجله Cultural Studies منتشر شده است.