استقلال تجهیزات کنترل شورش در آینده از "کمک ابزار" به "همکاری در کار" منتقل شده است، که دارای ادراک، قضاوت و قابلیت پاسخ مستقل در محیط های محدود است. با این حال، تصمیمگیری اصلی همچنان یک مدل «انسان-روی--حلقه» برای اطمینان از کنترل نهایی بر استفاده از زور باقی خواهد ماند.
با هدایت فناوریهای هوش مصنوعی و روباتیک، استقلال تجهیزات کنترل شورش عمدتاً در سه جنبه زیر منعکس میشود:
ادراک خودمختار و مدلسازی محیطی: سیستمهای کنترل شورش هوشمند مدرن را میتوان به ماژولهای همجوشی چند حسگر (مانند تصویربرداری حرارتی، لیدار، و آرایههای میکروفون) برای دستیابی به-اسکن و نقشهبرداری واقعی محیطهای پیچیده مجهز کرد. برای مثال، برخی از رباتهای کنترل شورش میتوانند به طور مستقل موانع، تغییرات در تراکم جمعیت و الگوهای رفتاری غیرعادی را شناسایی کنند و همچنان میتوانند در محیطهای با دود متراکم یا محیطهای کم نور بهطور پایدار عمل کنند.
تصمیم گیری خودمختار محدود-گرفتن و پاسخ رفتاری: با کمک محاسبات لبه و مدل های سبک هوش مصنوعی، تجهیزات می توانند به طور مستقل وظایف خاصی را در چارچوب قوانین از پیش تعیین شده انجام دهند. برای مثال، رباتهای گشت پس از شناسایی اقدامات خشونتآمیز (مانند بریدن یا شارژ) از طریق الگوریتمهای تشخیص رفتار، میتوانند بهطور خودکار هشدارها را فعال کنند، اهداف را ردیابی کنند، و مهمات غیرکشنده- را مستقر کنند. پهپادها، پس از شناسایی تهدیدات هوایی (مانند هواپیماهای بدون سرنشین مسابقه)، می توانند به طور مستقل از زمین بلند شوند و پارازیت الکترونیکی را اجرا کنند.
همکاری انسان-ماشین در یک ماموریت حلقه بسته{1}
در حال حاضر، تجهیزات بسیار خودمختار عموماً از معماری «انسان-روی{{1}-حلقه» استفاده میکنند، جایی که اپراتورهای انسانی اهداف مأموریت و مرزهای ایمنی را تعیین میکنند، در حالی که سیستم مسئول برنامهریزی مسیر، قفل کردن هدف، و بهینهسازی اجرا است. به عنوان مثال، ربات "Ball Police Officer" مستقر در برخی شهرهای چین می تواند به طور مستقل تحت کنترل هوش مصنوعی گشت زنی کند، اما به محض شناسایی{4}هدف پرخطر، قبل از انجام اقدامات بعدی، تأییدیه از طرف پرسنل- مورد نیاز است.
شایان ذکر است که اگرچه پاسخهای کاملاً مستقل «خارج از حلقه انسان» از نظر فنی امکانپذیر است، اما اقدامات خودمختار کشنده-یا با نیروی زیاد به دلیل ملاحظات اخلاقی و قانونی هنوز کاملاً محدود است. جامعه بین المللی به طور کلی خواستار حفظ "کنترل معنادار انسانی" (MHC) برای جلوگیری از قضاوت های غلط الگوریتمی است که منجر به عواقب غیرقابل کنترل شود.




