پیامدهای حقوقی بکارگیری هوش مصنوعی در تسلیحات نظامی: چالش‌های نوین فراروی حقوق مخاصمات مسلحانه

نوع مقاله : مقاله پژوهشی

نویسنده

گروه حقوق بین الملل - دانسکده امنیت ملی - دانشگاه عالی دفاع ملی

چکیده

پیشرفت علوم و فناوری های نظامی و کاربرد هوش مصنوعی در تسلیحات نوین خودکار با هدف انجام ماموریت‌های جنگی بدون دخالت انسان، موضوعی است که توجه اکثر دولتها و ارتش‌های جهان را به خود جلب کرده است. براساس قواعد و مقررات حقوق مخاصمات مسلحانه، حق‌ طرفین درگیری در توسعه و بکارگیری هر نوع ابزار و سلاح، نامحدود نیست‌. امروزه، استفاده از ابزارها و تسلیحات نوین مجهز به هوش مصنوعی موجب نگرانی‌ دولتها‌ شده و اجرای قواعد ناظر بر مخاصمات مسلحانه را با ابهام روبرو کرده است. این مقاله با استفاده از روش تحلیلی و توصیفی، به دنبال پاسخ به این پرسش است که با توسعه و کاربست هوش مصنوعی در تسلیحات خودکار و واگذاری تصمیم گیری از فرد انسانی به هوش مصنوعی، رعایت اصول حقوق بشردوستانه(تفکیک، ضرورت نظامی، منع‌ درد و رنج‌ بیهوده‌، تناسب) با چه چالش هایی مواجه خواهد شد؟ مسئولیت ناشی از نقض اصول و قواعد حقوق بشردوستانه بر عهده چه کسی است؟ نتایج این پژوهش نشان می دهد که به رغم فرصت ها و ویژگی‌هایی که فناوری‌های خودکار نظامی و هوش مصنوعی در تشخیص اهداف نظامی و افزایش دقت سلاح دارند و می‌توانند موجب کاهش تلفات انسانی شوند، اما حتی با بکارگیری هوش مصنوعی در تسلیحات نظامی، اینگونه ‌سلاح‌ها نخواهند توانست اصول حقوق مخاصمات مسلحانه را رعایت کنند. بنابراین نیاز فوری به یک چارچوب حقوقی نوین برای تنظیم و کنترل تسلیحات خودکار و هوشمند احساس می شود.

کلیدواژه‌ها


عنوان مقاله [English]

Legal implications of Using Artificial Intelligence in Military Weapons: New challenges faced with the Law of Armed Conflicts

نویسنده [English]

  • Mohammadreza Hosseini
Department of International Law - Faculty of National Security - National Defense University
چکیده [English]

The advancement of military science and technology and the use of artificial intelligence (AI) in modern and autonomous weapons with the aim of carrying out combat missions without human intervention is a subject that has attracted the attention of most states and armies of the world. According to the rules and regulations of the law of armed conflicts (LOAC), the right of belligerent parties to develop and apply any kind of tools and weapons is not unlimited. Today, the use of new tools and weapons equipped with AI has caused many legal concerns and has made the implementation of the rules and principles governing armed conflicts ambiguous. This article by using the analytical and descriptive method, seeks to answer these questions that with the development and application of AI in autonomous weapons and the transfer of decision-making from humans to AI, compliance with the principles of humanitarian rights what challenges will it face? And who is responsible for violating the principles of humanitarian law? The results of this research show that despite the opportunities and features that artificial intelligence have in recognition military targets and improving the accuracy of weapons and can reduce human casualties, but there is an urgent need for a The new legal framework for the regulation of robotics and intelligent weapons is felt, so it seems that even with the use of AI in new and autonomous weapons, such weapons will not be able to comply with the principles of the law of armed conflicts.

کلیدواژه‌ها [English]

  • The Law of Armed Conflict (LOAC)
  • Artificial Intelligence(AI)
  • modern Autonomous Weapons
  • Robotic weapons
  • responsibility for using AI weapons