تحلیل ایرانی
بررسی و تحلیل
مرضیه ضیغمی

هوش مصنوعی و امنیت ملی در اسرائیل-7

تاثیرات احتمالی فناوری هوش مصنوعی در عرصه بین المللی

0

 

هوش مصنوعی و امنیت ملی در اسرائیل-7

هوش مصنوعی و امنیت ملی

آنچه خواندید:

در قسمت ششم هوش مصنوعی در چندین کشور پیشرو (ایالات متحده، چین، روسیه و اتحادیه اروپا) را به عنوان مبنایی برای بحث درباره پیامدهای احتمالی بین المللی و ارزیابی موقعیت نسبی اسرائیل نسبت به این هوش را بررسی می کند.

آنچه می خوانید:

در قسمت پایانی به تاثیرات احتمالی فناوری هوش مصنوعی در عرصه بین المللی و همچنین تاثیرات رقابت تسلیحاتی اشاره شده و آموزه هایی که می توان از سیستم های خودکار آموخت، آمده است.

هوش مصنوعی و امنیت ملی

فصل هفتم: تاثیرات بالقوه در عرصه بین المللی

تاثیرات احتمالی فناوری هوش مصنوعی در عرصه بین المللی بسیار زیاد است. علاوه بر رقابت عمومی برای دستیابی به هوش مصنوعی و مسابقه تسلیحاتی در این زمینه، این فصل چندین اثر بالقوه دیگر که هوش مصنوعی می تواند بر عرصه بین المللی داشته باشد و همچنین تاثیر مسابقه تسلیحاتی را بیان می کند.

هوش مصنوعی و امنیت ملی

ایمنی و خطرات

امروزه هیچ استاندارد بین المللی برای ایمنی هوش مصنوعی جز در سطح کشورها انهم به صورت بومی، وجود ندارد. در نتیجه، سیستم های هوش مصنوعی که دارای نقص های مختلف هستند، می توانند وارد بازار شده و مانند سیستمی که پایگاه داده زیربنایی آن حاوی جهت گیری های داخلی علیه گروه های خاص است، یا پایگاه داده های آن، در وهله اول اشتباه طراحی شده به طوری که می تواند نتایج اشتباه و فاجعه آمیزی را به همراه داشته باشد، یا کد بر روی یک پایگاه داده به اندازه کافی آموزش داده نشده و موجب اشتباه کاربران می گردد.

توسعه کنترل نشده هوش مصنوعی، خطری برای امنیت است، زیرا اگر سیستم هایی که کد خود را توسعه می دهند از کنترل خارج شوند و عملکرد صحیح زیرساخت های حیاتی غیرنظامی و نظامی را تضعیف کنند، می تواند خطرناک باشند. این یکی از ریسک های اصلی ناشی از رقابت برای رهبری و پیشروی در حوزه هوش مصنوعی است که با سرمایه گذاری کشورها و فعالیت شرکت های خصوصی آشکارآ مشخص می شود .

این پدیده می تواند بر تمام یا بخشی از عرصه بین المللی تأثیر بگذارد. با این حال، و با وجود این چالش ها، متاسفانه مجامع بین المللی تنها بر روی چند تذکر مانند تلاش سازمان ملل آن هم برای محدود کردن یا ممنوع کردن سلاح های خودکار( AWS) در چارچوب کنوانسیون ها و برخی دیگر از سلا ح های متعارف (CCW) متمرکز و  دل خوش شده اند.

هوش مصنوعی و امنیت ملی

 سایر مناطق تسلیحاتی و خطر ابر جنگ (هایپر وار،hyperwar)

یکی از نگرانی های اصلی، تأثیر منفی احتمالی هوش مصنوعی بر سایر حوزه های تسلیحاتی، مانند تسلیحات هسته ای، و همچنین خطر «ابر جنگ» یا جنگ جهانی است. این اصطلاح به جنگی مربوط می شود که با هوش مصنوعی انجام شده و تصمیم گیری خودکار را امکان پذیر می کند و تصمیم گیری انسانی در دوره رویارویی علنی و فیزیکی در حلقه مشاهده، جهت گیری، تصمیم گیری و عمل متعارف(OODA) دخالت مستقیم ندارد.

درنتیجه، مقدار زمان مرتبط با چرخه حلقه تصمیم گیری به منظور واکنش های تقریباً فوری، کاهش می یابد. این تحولات می تواند پیامدهای متغیر بسیاری به همراه داشته باشد زیرا اگر خطرات رقابت های تسلیحاتی یا هسته ای را در نظر بگیریم، احتمال آسیب به عرصه بین المللی می تواند بسیار زیاد باشد.

موازنه قدرت و ایجاد نظم نوین جهانی

کشوری با جمعیت نسبتاً زیاد و مولد که می تواند ارتشی را بسیج کند، قوی تر از کشورهایی که جمعیت کمتر یا پیر و جمعیت با رشد منفی دارند، هستند. با این حال، در عصر کنونی، هوش مصنوعی و سایر فناوری های پیشرفته می توانند کشورهایی با جمعیت کوچک تر یا پیر را تقویت کند.

هوش مصنوعی می تواند به ایجاد نظم جهانی جدید کمک کند که در آن کشورهایی با جمعیت کم قادرند به دلیل افزایش توانایی خود در جنگ، قدرتمند و نسبتاً تأثیرگذار شوند. این حتی فراتر از آن چیزی است که امروز می دانیم. همان طور که می دانیم فن آوری ها اکنون به طور فزاینده ای خودکار می شوند، دخالت انسان کاهش می یابد و همین باعث می گردد امکان دارد اتفاق های تاریخی مجددا تکرار شوند.

هوش مصنوعی و امنیت ملی

عصر دوقطبی جدید: چین- ایالات متحده

نظم نوین جهانی نیز مستقیماً به رقابت رو به رشد بین چین و ایالات متحده مرتبط است. این دو کشور که رقابت آن ها عمدتاً اقتصادی است، در زمینه هوش مصنوعی نیز با هم رقابت می کنند، با این درک که پیشرفت در این زمینه تقریباً می تواند هر زمینه ای را تحت تأثیر خود قرار دهد.

اگرچه؛ از پایان جنگ سرد، جهان به دلیل هژمونی تک قطبی آمریکا از ثبات نسبی بین المللی برخوردار بوده است، ولی رقابت در هوش مصنوعی ممکن است به سطح دیگری در مبارزه بین ایالات متحده و چین برای رهبری جهانی تبدیل شود. این مبارزه به طور قابل توجهی می تواند جهان را به یک دوره دو قطبی یعنی تقسیم عرصه بین المللی به دو بلوک به رهبری این دو کشور بازگرداند.

هوش مصنوعی و امنیت ملی

 افزایش شکاف بین کشورهای توسعه یافته و درحال توسعه

تغییرات در زمینه هوش مصنوعی ممکن است شکاف بین کشورهای توسعه یافته و کشورهای درحال توسعه را افزایش دهد و توانایی این کشورها را برای فعالیت در عرصه بین المللی و شاید حتی حفظ حاکمیت شان محدود کند. این شکاف می تواند منجر به موج های بزرگ مهاجرت به کشورهای پیشرفته شود، یا برخی کشورها یا گروه های درون آنها به دلیل ناتوانی در مقابله با شکافی که امروزه بین آنها وجود دارد، از اقدامات خشونت آمیز مانند تروریسم در پاسخ به تهدیدات میان کسانی که به فناوری های پیشرفته دسترسی دارند و کسانی که دسترسی ندارند، استفاده کنند.

ارتقای کیفیت زندگی و ثبات عرصه بین المللی از طریق بازدارندگی

علاوه بر پیش بینی های بدبینانه در مورد تأثیر هوش مصنوعی در عرصه بین المللی، پیش بینی می شود که هوش مصنوعی به طور مثبت نرخ رشد اقتصاد جهانی را افزایش دهد. یافتن درمان برای بیماری ها و بهبود سیستم های بهداشتی؛ بهبود کارایی و ایمنی حمل و نقل؛ تشویق به راه بری انرژی و بهبود درک پدیده های آب و هوایی؛ و شاید حتی با ابزار بازدارندگی به ثبات مبتنی بر صلح در عرصه بین المللی منجر شود.

هوش مصنوعی و امنیت ملی

فصل هشتم:

نتیجه:

از سیستم های تسلیحاتی خود مختار چه می توان آموخت؟

در زمینه امنیتی به طورکلی و در میدان نبرد به طور خاص، سیستم های سلاح های خودکار( AWS) به طور گسترده از نظر استقلال و هوش مصنوعی مورد بحث قرار می گیرند. چندین سال است که بحث عمومی بر روی محدودیت های این سیستم ها و از سال ۲۰۱۴ بحث های رسمی سازمان ملل نیز بر آنها متمرکزشده است.

مواردی از آزمایش های متمرکز بر سلاح های خودکار(AWS)  به دنبال گسترش درک برخی از چالش های ارائه شده توسط توسعه هوش مصنوعی صورت گرفته است.

سلاح های خودکار(AWS) را می توان به عنوان سیستم هایی تعریف کرد که در نتیجه تعامل بین محیط و سیستم کامپیوتری قادر به انجام یک عملیات مرگبار بدون دخالت مستقیم انسان هستند. با این وجود، برخی از نهادها از تعاریف گسترده تر یا عملیاتی تر استفاده می کنند.

سلاح های خودکار(AWS) های مختلفی امروزه در میدان نبرد عملیاتی هستند و در کاربردهای مختلف، از سیستم های دفاع فعال گرفته تا سیستم هایی که برای فتح و حمله به اهداف در زمین، هوا و دریا استفاده می شوند. یک شرط کلیدی در مورد این سیستم ها فقط مربوط به چگونگی رسیدگی به پیامدهای اخلاقی و قانونی و اجرای اقدامات کشنده بدون دخالت انسان در فرآیند عملیاتی آن است. مخالفان این سیستم ها ادعا می کنند که استفاده از آنها هنجارهای اخلاقی را نقض می کند، زیرا آنها فاقد شفقت و حساسیت انسانی هستند.

در جنگ، قوانین بشر دوستانه بین المللی، هدف قرار دادن غیر نظامیانی را که نه در خصومت ها شرکت دارند و نه برای مبارزه مسلحانه، حیاتی هستند، ممنوع می کند، علاوه بر آن هرگونه آسیب نامتناسب به اهداف نظامی را ممنوع می کند.

بنابراین، ادعای قانونی علیه سلاح های خودکار(AWS) این است که آنها هیچ توانایی قاطعی برای تمایز بین غیرنظامیان و جنگجویان ندارند، موضوعی که حتی انسان ها نیز فاقد آن هستند. علاوه بر اصل تمایز، حقوق بین الملل اصل واکنش متناسب را حکم می کند، به این معنی که آسیب رساندن به هدف باید بر اساس برآورد سهم و اهمیت هدف در میزان موفقیت و تلاش های دشمن در ضربه زدن به خودی انجام شود.

هوش مصنوعی و امنیت ملی

(امروزه) این تخمین متفاوت است و متأثر از ویژگی های نبرد و پیشرفت آن است بنابراین تشخیص اینکه سلاح های خودکار(AWS) در طول عملیات چگونه عمل می کند دشوار است، لذا بایستی با توجه به شاخص های منحصر به فرد در قوانین، بکارگیری این گونه سلاح ها را در جهت اجرای قانون کدگذاری کرد.

مشکل در اجرای این اصول در سیستم های خودکار؛ تنها نمونه ای است که قانون برای سیستم های خودمختار جدید ایجاد می کند. معضل دیگر بحث مسئولیت قانونی است آنهم در زمانی که شخص در تصمیم گیری دخالتی نداشته باشدو این دیگر غیر قابل اجرا خواهد بود.

مثلا این نظامات حاکم بر دنیا؛ پیامدهای نامطلوبی که استفاده از سلاح های خودکار(AWS)  به همراه داشته  و با قوانین بین المللی مغایرت دارند، را توسط چه کسی  و چگونه تحت پیگرد قانونی قرار می دهند. مشابه این موضوع در حوزه سلاح های خودکار(AWS)، سیستم های هوش مصنوعی هستند که ممکن است قوانین مرسوم و قوانین اخلاقی را به چالش بکشند و ممکن است بشریت را وادار به ارائه پاسخ های عملی به سؤالات پیچیده کنند.

بدون شک، هر جا که دستگاه های مستقل بتوانند در مورد زندگی انسان تصمیم گیری کنند یا جان انسان ها را به خطر بیندازند، معضلات اخلاقی و قانونی پدیدار خواهد شد، مانند زمانی که در جاده ها هستند یا در پزشکی استفاده می شوند.

سلاح های خودکار(AWS)  همچنین یک معضل نظارتی را ایجاد می کند که شامل مشکل تعریف فناوری و چالش محدود کردن توسعه آن است.

سازمان ملل متحد از سال ۲۰۱۴ درباره این سیستم ها به گفتگو پرداخت، و حتی بعداً در سال ۲۰۱۶ گروهی از کارشناسان دولتی را در مورد سیستم های تسلیحات خودکار مرگبار (GGE on LAWS) تشکیل داد تا درباره محدودیت های احتمالی توسعه یا استفاده از این سیستم ها و بکارگیری آنها در میدان جنگ گفتگو کنند.

با این حال، از سال ۲۰۲۰، کشورهای عضو GGE در قوانین خود نتوانسته اند حتی در مورد تعریفی روشن از  سلاح های خودکار(AWS)  به توافق برسند؛ تا بتوانند دستورالعمل هایی برای مقابله با چالش هایی که این فناوری ایجاد می کند، ارائه دهند.

حتی اگر GGE on LAWS بتواند بر روی تعریفی توافق کند، محدود کردن توسعه این فناوری ها مستلزم همکاری همه کشورها ازجمله روسیه و ایالات متحده است که اکنون توسعه را محدود نمی کنند. آنها می خواهند به جای اعمال محدودیت، رشد اقتصادی در هوش مصنوعی و بازار آزاد را تشویق کنند، علاوه بر آن برتری نظامی خود را حفظ کنند؛ هرچند از سیستم های تسلیحاتی خودکار هم استفاده نکنند.

بنابراین، این کشورها به جای اینکه توسعه آن را از قبل محدود کنند، تنها پس از توسعه فناوری از تنظیم یک حوزه خاص حمایت می کنند. همچنین ممکن است به دلیل سرعت سریع توسعه و سرعت پایین تنظیم، پیاده سازی سیستم ها دشوار شود.

برخی استدلال کرده اند که فرمول بندی فعلی می تواند پاسخی به معضلات اخلاقی هوش مصنوعی و فناوری های پیشرفته به نفع بشریت خواهد بود.

بااین حال، مورد سلاح های خودکار(AWS) نشان می دهد که عرصه سیاسی و بین المللی به دلیل وجود منافع متضاد بازیگران مختلف، به احتمال زیاد در مورد چارچوب نظارتی به اجماع نخواهند رسید.

علاوه بر این، توانایی سیستم ها برای تغییر و توسعه درنتیجه توانایی آنها در یادگیری، بدون شک بر چالش هایی که هوش مصنوعی ایجاد می کند، مانند دشوار بودن تعریف یا محدود کردن با خروج از ابزار قانونی و نظارتی، تأثیر می گذارد.

توسعه فناوری هوش مصنوعی تصمیم گیرندگان را با چالش های اخلاقی، قانونی و مقرراتی در هر دو سطح ملی و بین المللی مواجه می کند. با توجه به پیچیدگی موضوع، توصیه می شود کشورها نسبت به این موضوع اقدام و موضع گیری کنند تا بتوانند منافع خود را تضمین نمایند.

پایان

 

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.