کد خبر: 1203152
تاریخ انتشار: ۱۸ آذر ۱۴۰۲ - ۱۳:۲۲
گزارش‌ها نشان می‌دهد که رژیم صهیونیستی برای یافتن اهداف بیشتر بمباران از یک مدل هوش مصنوعی به نام «هابسورا» استفاده کرده است.

به گزارش جوان آنلاین به نقل از آنا، هفته گذشته، گزارش‌هایی مبنی بر به‌کارگیری سیستم هوش مصنوعی توسط نیرو‌های دفاعی رژیم صهیونیستی در جنگ غزه منتشر شد که ادعا می‌کند رژیم صهیونیستی برای یافتن اهداف بیشتر برای بمباران از یک مدل هوش مصنوعی به نام «هابسورا» استفاده کرده است.

نویسنده این گزارش به صراحت نوشت: «استفاده از سیستم‌های هدف‌گیری هوش مصنوعی در درگیری‌های غزه به چه معناست؟ تحقیقات من درباره پیامد‌های اجتماعی، سیاسی و اخلاقی استفاده نظامی از سیستم‌های از راه دور و خودمختار نشان می‌دهد که هوش مصنوعی در حال تغییر ماهیت جنگ است.»

نظامیان رژیم صهیونیستی از سیستم‌های از راه دور و خودمختار برای افزایش ضریب تأثیر سربازان و محافظت از جان سربازان خود استفاده می‌کنند. سیستم‌های هوش مصنوعی می‌توانند سرعت و مرگ‌بار بودن جنگ را افزایش دهند.

زمانی که نظامیان رژیم صهیونیستی می‌توانند به میل خود و با کمترین خطر دست به قتل‌عام بزنند آیا دیگر جایی برای تفکر اخلاقی در جنگ وجود خواهد داشت؟ استفاده روزافزون از هوش مصنوعی به غیرانسانی شدن دشمنان و قطع ارتباط بین جنگ‌ها و جوامعی خواهد شد که به نام آن‌ها جنگ برپا می‌شود.

هوش مصنوعی در جنگ

این سیستم‌ها ویژگی جنگ را تغییر می‌دهند و ورود به یک درگیری را آسان‌تر می‌کنند. هوش مصنوعی ممکن است اطلاعات نادرست بدهد و سبب ایجاد و تقویت سوء‌تفاهم‌های خطرناک در زمان جنگ شود.

سیستم‌های هوش مصنوعی شاید تمایل انسان به اعتماد به پیشنهادات ماشین‌ها را افزایش دهند و اطمینان به سیستم‌های مستقل را کم کنند. چنانچه مرز‌های یک سیستم هوش مصنوعی که با سایر فناوری‌ها و با مردم در تعامل است مشخص نباشد، هیچ راهی برای دانستن اینکه چه کسی خروجی‌های آن را تعیین کرده است وجود نخواهد داشت.

تصمیم‌گیری ماشینی

شاید یکی از اساسی‌ترین و مهم‌ترین تغییراتی که احتمالاً به واسطه هوش مصنوعی شاهد آن هستیم، افزایش سرعت جنگ باشد. این ممکن است درک ما از بازدارندگی نظامی را تغییر دهد، یعنی این فرض که انسان‌ها بازیگران و منابع اولیه اطلاعات و تعامل در جنگ هستند.

نظامیان و سربازان تصمیم‌گیری‌های خود را از طریق چرخه‌ای چهار مرحله‌ای (مشاهده، جهت‌یابی، تصمیم و اقدام) انجام می‌دهند؛ اما اگر قرار باشد هوش مصنوعی تصمیم بگیرد فضای بررسی اخلاقی در این چرخه کجاست؟

نرم‌افزار هدف‌گیری هابسورا نمونه‌ای از شتابزدگی در هدف‌گیری ماشینی است. یکی از فرماندهان سابق ارتش رژیم صهیونیستی گفته است که تحلیلگران انسانی اطلاعات ممکن است هر سال ۵۰ هدف را در غزه بمباران کنند؛ اما سامانه هابسورا می‌تواند روزانه ۱۰۰ هدف را در غزه بمباران کند. این سامانه، هدف‌گیری و بمباران را از طریق الگوریتم‌های یادگیری ماشینی انجام می‌دهد.

الگوریتم‌های یادگیری ماشینی با جستجوی الگو‌ها در انبوهی از داده‌ها آموزش می‌بینند و میزان موفقیت آن‌ها به کیفیت و کمیت داده‌ها بستگی دارد.

مشکل تشخیص هویت نظامی

برخی ادعا می‌کنند که یادگیری ماشینی دقت هدف‌گیری را بیشتر می‌کند و باعث جلوگیری از آسیب به افراد بی‌گناه می‌شود؛ اما این ایده در هدف‌گیری‌های اخیر موفقیت آمیز نبوده است و آمار بالای تلفات غیرنظامی نیز مؤید همین موضوع است.

علاوه بر این، تشخیص نظامیان از افراد عادی در جنگ کار دشواری است. حتی انسان‌ها نیز اغلب نمی‌توانند تشخیص دهند که چه کسی رزمنده است و چه کسی نیست.

لزوم بازنگری در به‌کارگیری هوش مصنوعی

در دوران جنگ‌های ناعادلانه و اشغال‌های نظامی، نقض فاحش قوانین درگیری، و رقابت تسلیحاتی بین آمریکا و چین زندگی می‌کنیم. در این زمینه، گنجاندن هوش مصنوعی در جنگ ممکن است پیچیدگی‌های جدیدی را اضافه کند که به جای جلوگیری از آسیب، آن را تشدید کند.

سیستم‌های هوش مصنوعی، ناشناس ماندن بازیگران جنگ را آسان‌تر می‌کنند و می‌توانند منبع خشونت یا تصمیم‌های منجر به آن را نامرئی کنند. همچنین ممکن است شاهد قطع ارتباط بین نظامیان، سربازان و غیرنظامیان با ملت‌هایی باشیم که جنگ به نام آن‌ها در جریان است.

هوش مصنوعی باید حامی آرمان‌های دموکراتیک باشد، نه اینکه آن‌ها را تضعیف کند. اگر بخواهیم هوش مصنوعی را در طیف وسیعی از شیوه‌های نظامی به کار ببریم، اعتماد به دولت‌ها، نهاد‌ها و ارتش‌ها به مرور از بین می‌رود. فناوری‌های نوظهور و اثراتی که به جای می‌گذارند باید به دقت مورد بازبینی و موشکافی قرار بگیرند تا هر شکلی از خشونت نظامی به آخرین راه حل تبدیل شود. تا آن زمان، بهتر است الگوریتم‌های یادگیری ماشینی از شیوه‌های هدف‌یابی در ارتش‌های جهان جدا باشند.

نظر شما
جوان آنلاين از انتشار هر گونه پيام حاوي تهمت، افترا، اظهارات غير مرتبط ، فحش، ناسزا و... معذور است
تعداد کارکتر های مجاز ( 200 )
پربازدید ها
پیشنهاد سردبیر
آخرین اخبار