با ما همراه باشید

سرگرمی

استفاده از هوش مصنوعی در جنگ علیه ایران چگونه است؟

گزارش‌ها حاکی از آن است که آمریکا و رژیم صهیونیستی در جنگ علیه کشورمان از فناوری هوش مصنوعی استفاده می‌کنند و احتمالا به همین دلیل بوده که تعداد حملات بیشتری را در بازه زمانی کوتاه‌تری انجام داده‌اند.

منتشر شده

در

به گزارش اقتصاد آنلاین به نقل از ایسنا، حمله مشترک ایالات متحده و اسرائیل به ایران، چیزی بیش از تشدید یک درگیری منطقه‌ای ناپایدار را به همراه داشته است. این حمله نشان داده است که چگونه هدف‌گیری مبتنی بر الگوریتم و اطلاعات مبتنی بر داده، ساز و کار جنگ را تنظیم می‌کند.

به نقل از آی‌ای، طبق گزارش‌ها، نیروهای ایالات متحده و اسرائیل در ۱۲ ساعت آغازین جنگ، نزدیک به ۹۰۰ حمله به اهداف ایرانی انجام دادند. این در حالی است که این سرعت عملیاتی در درگیری‌های قبلی روزها یا حتی هفته‌ها طول می‌کشید.

فراتر از مقیاس حملات که شامل صدها مأموریت با استفاده از بمب‌افکن‌های رادارگریز، موشک‌های کروز و پهپادهای انتحاری بود، آنچه بیش از همه برای تحلیلگران نظامی و اخلاق‌گرایان برجسته است، نقش فزاینده هوش مصنوعی در برنامه‌ریزی، تجزیه و تحلیل و اجرای بالقوه آن عملیات است.

منتقدان هشدار می‌دهند که این روند می‌تواند زمان‌بندی تصمیم‌گیری را به سطوحی فشرده کند که در آن قضاوت انسانی به حاشیه رانده شود و دورانی از جنگ را آغاز کند که با چیزی که «سریع‌تر از سرعت فکر» توصیف شده است، انجام می‌شود.

در اصطلاحات نظامی، «کوتاه کردن زنجیره کشتار» به فروپاشی توالی از شناسایی هدف و اعتبارسنجی اطلاعات گرفته تا مجوز قانونی و آزادسازی سلاح‌ها به یک حلقه عملیاتی بسیار فشرده‌تر اشاره دارد.

این کوتاه شدن فاصله زمانی، نگرانی‌هایی را ایجاد می‌کند مبنی بر اینکه متخصصان انسانی ممکن است صرفاً توصیه‌های تولید شده توسط الگوریتم‌ها را تأیید کنند.

در محیطی که سرعت و اتوماسیون دیکته می‌شود، فضای تردید، مخالفت یا خویشتن‌داری اخلاقی ممکن است به همان سرعت در حال کاهش باشد.

هوش مصنوعی و زنجیره کشتار؛ آنچه تغییر کرده است

سیستم‌های هوش مصنوعی که قادر به پردازش جریان‌های گسترده داده‌ها هستند، با سرعتی که هیچ تیم انسانی نمی‌تواند با آن برابری کند، به منابعی مانند داده‌های پهپادها، تصاویر ماهواره‌ای و رهگیری‌های مخابراتی متصل می‌شوند.

به گفته گاردین، این ابزارها در طول حملات ایالات متحده و اسرائیل در ایران برای تولید توصیه‌های هدف‌گیری و فشرده‌سازی چرخه‌های برنامه‌ریزی که از نظر تاریخی روزها یا هفته‌ها طول می‌کشید، به ساعت‌ها یا حتی چند دقیقه تبدیل شدند.

کریگ جونز(Craig Jones)، مدرس ارشد جغرافیای سیاسی در دانشگاه نیوکاسل و متخصص زنجیره‌های کشتار نظامی به گاردین گفت که سیستم‌های هوش مصنوعی اکنون با سرعتی که از برخی جهات از پردازش شناختی انسان فراتر می‌رود، توصیه‌هایی برای هدف قرار دادن ارائه می‌دهند.

وی استدلال کرد: «نتیجه، اجرای همزمان در مقیاس بزرگ است. هدف قرار دادن رهبری، سرکوب موشکی و حملات به زیرساخت‌ها به جای اینکه به ترتیب انجام شوند، به صورت موازی اتفاق می‌افتند.»

دیوید لزلی(David Leslie)، استاد اخلاق، فناوری و جامعه در دانشگاه «کوئین مری لندن» نیز در اظهاراتی به گاردین هشدار داد که چنین سیستم‌هایی، جدول زمانی برنامه‌ریزی را به یک «بازه زمانی بسیار باریک‌تر» برای بررسی انسانی تبدیل می‌کنند. در حالی که فرماندهان از نظر فنی اصطلاحا «در حلقه» باقی می‌مانند، فرصت برای مشورت معنادار به طرز چشمگیری کاهش می‌یابد.

این فشرده‌سازی سرعت عملیاتی که اغلب به عنوان «فشرده‌سازی تصمیم‌گیری» از آن یاد می‌شود، صرفاً مربوط به کارایی نیست. این امر ساختار خودِ اقتدار نظامی را تغییر می‌دهد و فضایی را که مشاوران حقوقی، تحلیلگران و فرماندهان می‌توانند قبل از شلیک سلاح‌ها، فرضیات را زیر سؤال ببرند، محدود می‌کند.

جایگاه اخلاق در نبرد تقویت‌شده با هوش مصنوعی

کارشناسان اخلاق و فناوری هشدار می‌دهند که با افزایش نقش سیستم‌های هوش مصنوعی در برنامه‌ریزی نظامی، ماهیت نظارت انسانی اساساً تغییر می‌کند. یکی از نگرانی‌ها، تخلیه شناختی است که در آن تصمیم‌گیرندگان به راحتی در مقابل توصیه‌های الگوریتمی تسلیم می‌شوند و عملاً مسئولیت‌پذیری انسان را در انتخاب‌های استراتژیک کاهش می‌دهند.

به گفته گاردین، این جدایی به‌ویژه زمانی نگران‌کننده است که تلفات غیرنظامیان در خطر باشد. در یک حمله اخیر در جنوب ایران، حداقل ۱۵۰ نفر که بسیاری از آنها دختران دانش‌آموز بودند، در حادثه‌ای که سازمان ملل آن را «نقض شدید حقوق بشر» توصیف کرد، کشته شدند.

حقوق بین‌الملل بشردوستانه حول فرض قضاوت انسانی در چارچوب تناسب و تمایز شکل گرفته است. با فشرده‌سازی جدول‌های زمانی توسط سیستم‌های هوش مصنوعی و ایجاد سریع گزینه‌های حمله، این خطر افزایش می‌یابد که این بررسی‌های قانونی و اخلاقی تحت‌الشعاع ضرورت سرعت قرار گیرند.

کارهای دانشگاهی در مورد هوش مصنوعی نظامی همچنان بر نیاز به چارچوب‌هایی برای جلوگیری از فرسایش عامل انسانی در زمینه‌های کشنده و اطمینان از اینکه کارایی میدان جنگ ملاحظات مربوط به آسیب به غیرنظامیان و انطباق با قوانین را نادیده نمی‌گیرد، تأکید دارند.

تنش‌های اخلاقی پیرامون هوش مصنوعی نظامی انتزاعی نیستند. مدل هوش مصنوعی کلود(Claude) ساخته شرکت آنتروپیک (Anthropic) در همکاری با پالانتیر(Palantir) در گردش‌های کاری امنیت ملی ایالات متحده ادغام شده است تا به تجزیه و تحلیل اطلاعات و برنامه‌ریزی جنگ کمک کند. با این حال، شرکت آنتروپیک در برابر استفاده از سیستم‌های خود برای سلاح‌های کاملاً خودمختار یا برنامه‌های نظارت داخلی خط قرمز کشید.

دولت ایالات متحده در روزهای منتهی به حملات به ایران اعلام کرد که آنتروپیک تحت این محدودیت‌ها به تدریج از برخی سیستم‌های دفاعی کنار گذاشته خواهد شد. اندکی پس از آن، شرکت اوپن‌ای‌آی(OpenAI) برای کاربردهای نظامی مدل‌های خود با پنتاگون توافق‌نامه‌ای امضا کرد.

موضع آنتروپیک نشان‌دهنده تنش اصلی این دوره جدید جنگ است. همان مدل‌هایی که قادر به ترکیب اطلاعات با سرعتی بی‌سابقه هستند، می‌توانند برای نظارت یا سیستم‌های کشنده خودمختار نیز مورد استفاده مجدد قرار گیرند. اینکه آیا اقتدار انسانی همچنان ضروری است، نه تنها به دکترین نظامی، بلکه به نحوه انتخاب شرکت‌های فناوری برای تعریف محدودیت‌های مشارکت آنها نیز بستگی دارد.

به طرز نگران‌کننده‌ای، در بازی‌های جنگی شبیه‌سازی‌شده که برای انعکاس بحران‌های هسته‌ای به سبک جنگ سرد طراحی شده‌اند، مدل‌های هوش مصنوعی به طور گسترده به سمت گزینه‌های هسته‌ای سوق داده شدند و در ۹۵ درصد سناریوها اقدام هسته‌ای تاکتیکی را انتخاب کردند و به ندرت به سمت کاهش تنش رفتند.

در حالی که شبیه‌سازی‌ها نشان نمی‌دهند که هوش مصنوعی به ناچار در درگیری‌های واقعی تشدید هسته‌ای را انتخاب خواهد کرد، اما نشان می‌دهند که چگونه مدل‌های استدلال استراتژیک می‌توانند تحت فشار به سمت نتایج ناخوشایند پیش بروند.

هوش مصنوعی عملیاتی فراتر از ایران؛ غزه، ونزوئلا و چشم‌انداز جهانی

مدتی است که از هوش مصنوعی نظامی پیشرفته برای شناسایی اهداف و برنامه‌ریزی حملات استفاده می‌شود. برای مثال در نوار غزه، نیروهای دفاعی اسرائیل ابزارهای هوش مصنوعی مانند The Gospel و Lavender را به کار گرفته‌اند تا به طور خودکار داده‌های نظارتی گسترده را بررسی کرده و فهرست‌های روزانه‌ای از اهداف بمباران را برای بررسی و اقدام تحلیلگران ایجاد کنند.

طبق اعلام منابع نظامی و تحقیقات، The Gospel روزانه ده‌ها هدف تولید کرده است که نرخی بسیار بالاتر از فرآیندهای سنتی به رهبری انسان است. در حالی که Lavender پایگاه‌های داده گسترده‌ای از مظنونان و مکان‌های مرتبط را که توسط الگوریتم‌های هوش مصنوعی علامت‌گذاری شده‌اند، نگهداری می‌کند.

ایالات متحده فراتر از خاورمیانه، ابزارهای هوش مصنوعی را در مناطق دیگر نیز آزمایش کرده است. طبق گزارش‌های متعدد، مدل «کلود» شرکت «آنتروپیک» توسط ارتش ایالات متحده برای پشتیبانی از تجزیه و تحلیل اطلاعات و انتخاب هدف در یک عملیات مهم برای دستگیری نیکولاس مادورو، رئیس جمهور سابق ونزوئلا در اوایل سال ۲۰۲۶ مورد استفاده قرار گرفت.

برنامه‌های طولانی‌مدتی مانند پروژه ماون (Maven) که در سال ۲۰۱۷ توسط وزارت دفاع ایالات متحده راه‌اندازی شد، فناوری یادگیری ماشینی را برای تجزیه و تحلیل تصاویر و پشتیبانی از تصمیمات هدف‌گیری در درگیری‌های مختلف از عراق و سوریه گرفته تا اوکراین که در آن پهپادهای مجهز به هوش مصنوعی به شناسایی و درگیری اهداف در محیط‌های پیچیده جنگ الکترونیکی کمک می‌کنند، به کار گرفته‌اند.

در سطح ژئوپلیتیکی، تلاش‌ها برای ایجاد هنجارهایی برای استفاده از هوش مصنوعی در حوزه نظامی با چالش همراه بوده است. یک بیانیه سیاسی در مورد استفاده نظامی مسئولانه از هوش مصنوعی و خودمختاری توسط سیاست‌گذاران ایالات متحده اعلام شد و ده‌ها کشور برای تأیید رویه‌های مسئولانه برای خودمختاری کشنده و نظارت انسانی به آن پیوستند.

با این حال، قدرت‌های نظامی از جمله ایالات متحده و چین، گاهی اوقات تمایلی به پذیرش کامل محدودیت‌های الزام‌آور نداشته‌اند که نشان‌دهنده اولویت‌های رقابتی بین مزیت استراتژیک و محدودیت اخلاقی است.

کشورهای دیگر نیز در حال پیشرفت در ساخت سلاح‌های مجهز به هوش مصنوعی هستند. در ترکیه، موشک کروز «Baykar Bayraktar Kemankeş 1» از هدایت نوری با کمک هوش مصنوعی برای تشخیص خودکار هدف در شرایط نامساعد استفاده می‌کند.

در هند، پروژه‌های تحقیقاتی دفاعی مانند «Project Anumaan» و «Trinetra» در حال بررسی پتانسیل هوش مصنوعی برای ترکیب اطلاعات در شبکه‌ها و امکان ارزیابی زودهنگام تهدید هستند.

آنچه کارزار ایران را متمایز می‌کند، نه تنها شدت حملات، بلکه عادی‌سازی هدف‌گیری با کمک هوش مصنوعی در مقیاس وسیع است. از فهرست‌های خودکار حملات گرفته تا بررسی‌های حقوقی فشرده، میانجیگری الگوریتمی به شکلی بی‌سابقه در منازعات مدرن گنجانده می‌شود.

ادامه مطلب
برای افزودن دیدگاه کلیک کنید

یک پاسخ بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

فرهنگی، هنر و سینما3 دقیقه پیش

درخواست برای آزادی هنرمندان بازداشت‌شده

فرهنگی، هنر و سینما4 دقیقه پیش

نوشته‌هایی از آرمان درویش و محمدعلی باشه‌آهنگر برای این روزهای ایران

سیاسی و اجتماعی26 دقیقه پیش

روسیه: ایران از ما درخواست کمک نکرده است

سیاسی و اجتماعی27 دقیقه پیش

اولین تصاویر از حمله موشکی به ۲ مدرسه در پرند + عکس

سیاسی و اجتماعی27 دقیقه پیش

پرتاب پهپاد از سوی ایران به سمت جمهوری آذربایجان / ستاد کل نیروهای مسلح اطلاعیه داد

اقتصادی و مالی52 دقیقه پیش

شهادت 49 نفر در ‌حملات جنگند‌ه‌های اسرائیل ‌به آذربایجان غربی

اقتصادی و مالی52 دقیقه پیش

تلاش رسانه‌نماهای تجزیه‌طلب برای ایجاد رعب و وحشت با اخبار دروغ!

اقتصادی و مالی53 دقیقه پیش

موج‌سواری رسانه‌های معاند/تکذیب شایعه تخلیه شهرستان‌های کردستان

اقتصادی و مالی54 دقیقه پیش

انهدام پهپاد پیشرفته هرمس اسرائیل ‌در آسمان قصر‌شیرین

اقتصادی و مالی55 دقیقه پیش

شهید امیر سرتیپ محمدباقر کاظمی‌مقدم در گناباد تشییع شد+تصاویر

جدیدترین نظرات مخاطبان

خبر لحظه‌ای اخیر