تصور کنید ارتشی بزرگ قصد دارد شهری را در جریان نبرد جنگی تصرف کند. فرماندهان نمیخواهند نیروهای نظامی در نبردهای خانهبهخانه درگیر شوند و تلفات زیادی داشته باشند. آنها ابتدا گروهی از پهپادهای کوچک را با دستورالعملی ساده به منطقه میفرستند: هر فردی که سلاح حمل میکند را بکشید. چند ساعت بعد، شهر برای نفوذ نیروهای انسانی امن خواهد بود.
سناریوی بالا شبیه به صحنهای از یک فیلم علمی تخیلی بهنظر میرسد. شاید باور نکنید که فناوری مورد نیاز برای پیوند دادن داستان بالا به حقیقت، هماکنون در دستان انسانها قرار دارد. ارتشهای متعددی در سرتاسر جهان تلاش میکنند تا این داستان را به واقعیت پیوند دهند.
متخصصان یادگیری ماشین و فناوریهای نظامی اعتقاد دارند ساخت رباتهایی با قابلیت تصمیمگیری بدون دخالت انسان، از لحاظ فناورانه ساده محسوب میشود. رباتهای مورد نظر آنها، میتوانند بدون درگیر کردن انسانها در فرایندهای تصمیمگیری، هدفهای کشتار خود را انتخاب کنند. بهبیاندیگر هیچ فردی از هیچیک از مراحل انتخاب تا کشتن سوژه دخالت نخواهد کرد. با قدرتمندتر شدن فناوریهای تشخیص چهره و الگوریتمهای تصمیمگیری، توسعهی چنین روندی روزبهروز هم آسانتر میشود.
سلاحهایی که در بالا به آنها اشاره کردیم، بهعنوان «سلاحهای مرگبار خودکار» در اسناد نظامی مطرح میشوند. درواقع همان نام «ربات قاتل» را میتوان برای چنین فناوری استفاده کرد. سلاحهای مذکور برخلاف تصور مردم عادی بهصورت رباتهای انساننما نخواهند بود و عموما، پهپاد هستند. درواقع ساختن رباتهای انساننمای مبارز هنوز مراحل دشواری در پیش دارد. بههرحال ساختن پهپادهای مرگبار آسانتر از روندهای کنونی خواهد بود و قطعا محصولاتی ارزانتر هم تولید میشوند.
اکنون و با توسعهی فناوری رباتیک، محققان حوزهی هوش مصنوعی و سیاستهای عمومی تلاش میکنند تا جامعه و دولتمردان را از خطرات رباتهای قاتل مطلع کنند. آنها میگویند چنین رباتهایی نهتنها در فیلمهای علمی تخیلی، بلکه در زندگی واقعی نیز ایدهی بدی هستند. هوش مصنوعی قطعا کاربردهایی در کاهش اثرات مرگبار جنگ و آسیبهای آن دارد. منتهی اسلحههای کاملا خودکار میتوانند بحرانهای جدی استراتژیک، فنی و اخلاقی ایجاد کنند. بههمیندلیل دانشمندان و فعالان اجتماعی تلاش میکنند تا سازمان ملل متحد و دولتهای سرتاسر جهان را به ایجاد ممنوعیتهای پیشگیرانه تشویق کنند. آنها امیدوار هستند که رباتهای قاتل را در همان فیلمهای علمی تخیلی نگه دارند.
مکانیزم رباتهای قاتل
آمریکاییها و بسیاری کشورهای دیگر هماکنون نیز از پهپادهای نظامی استفاده میکنند. این پهپادها در حال حاضر نیز در آسمان بسیاری از کشورها درحال پرواز هستند. البته در نمونههای کنونی، انسانها تصمیم نهایی را در شلیک آتش به پهپاد ارسال میکنند. سلاحهای مرگبار خودکار (به اختصار با LAWS شناخته میشوند) هنوز بهصورت کامل وجود خارجی ندارند؛ اما فناوری لازم برای جایگزین کردن انسانهای تصمیمگیر با الگوریتم، طراحی شده است.
استوارت راسل استاد علوم کامپیوتر دانشگاه یوسی برکلی و محقق هوش مصنوعی دربارهی سلاحهای خودکار میگوید:
توسعهی سلاحهای خودکار از لحاظ فناورانه آسانتر از خودروهای خودران است. افرادی که در فناوریهای مرتبط کار میکنند، توسعهی چنین سلاحهایی را حداکثر تا دو سال آینده آسان و ممکن میدانند.
سلاحهای خودکار آینده شبیه به فیلم ترمیناتور نخواهند بود. سادهترین نسخههای آنها از سختافزارهای کنونی پهپادهای نظامی بهره میبرند. البته پهپادهای کنونی ویدئوی زندهای از محل درگیری را به مرکز نظامی ارسال میکنند که سرباز مورد نظر، براساس ویدئو دستور شلیک میدهد. درمقابل، سلاحهای خودکار سربازر را از چرخه خارج میکنند و تصمیمگیری توسط الگوریتم انجام میشود.
الگوریتمها را میتوان با فهرستی از اهداف احتمالی تغذیه کرد. آنها با بررسی ویدئوهای خود و پس از اطمینان حداکثری از شناسایی فرد مورد نظر، شلیک را انجام میدهند. بهعلاوه میتوان الگوریتم را با نمونههایی از میدان نبرد آموزش داد. پس از مدتی الگوریتم متوجه میشود که در چه موقعیتهایی احتمال صدور فرمان حمله بیشتر خواهد بود. ماشین مورد نظر در آن موقعیتها بهصورت خودکار دستور حمله را صادر و اجرا میکند. در نمونهای دیگر میتوان دستور سادهای به الگوریتم داد تا با شناسایی بصری، هر فردی را که بدون پوشیدن یونیفرمهای خودی، سلاح حمل کند، هدف قرار دهد.
توبی والش، استاد هوش مصنوعی در دانشگاه نیو ساوث ولز و فعال مبارز علیه توسعهی سلاحهای خودکار مرگبار دربارهی آنها میگوید:
وقتی دربارهی رباتهای قاتل صحبت میکنیم، مردم فیلم ترمیناتور را تصور میکنند. آنها فیلمهای علمی تخیلی را در نظر میگیرند. مردم فکر میکنند این فناوری سالها از ما فاصله دارد. درواقع سلاحهای مرگبار فناوریهای سادهای دارند که نزدیکتر از همیشه به ما هستند. بهعلاوه هماکنون نیز نمونههای اولیهی آنها ساخته میشود.
در سالهای گذشته، هوش مصنوعی با سرعت بالایی رشد کرده است. تشخیص چهره بیش از هیشه دقیق شد و شناسایی اجسام نیز با همان سرعت پیشرفت کرد. فناوریهایی که برای توسعهی سلاحهای مرگبار خودکار، الزامی هستند.
روشهای جدید به سیستمهای هوش مصنوعی امکان انجام کارهایی را میدهند که چند سال پیش غیرممکن بهنظر میرسید. از نوشتن داستان تا طراحی و ساخت چهرههای قلابی امروزه بهراحتی توسط هوش مصنوعی انجام میشود. بهعلاوه فناوری امروز میتواند در بازیهای جنگی آنلاین تصمیمهای استراتژیک کاربردی بگیرد که در توسعهی سلاحهای مرگبار خودکار بسیار کاربردی خواهد بود.
پیشرفتهای بالا ثابت میکنند که توسعهی سلاحهای خودکار مرگبار امروز از غیرممکن به ساده تبدیل شده است. پیشرفتها نیز به این خاطر ایجاد شدند که ما مردم جهان هیچ اجماع یا نظرسنجی را پیرامون صحیح بودن یا نبودن توسعهی آنها انجام ندادهایم.
ساخت رباتهای قاتل دنیا توسط آمازون و مایکروسافت
بهگزارش خبرگزاری فرانسه (AFP)، براساس نتایج نظرسنجی از افراد مهم و تأثیرگذار حوزهی فناوری دربارهی سلاحهای مستقل کشنده و مرگبار، آمازون و مایکروسافت و اینتل سه غول بزرگ و برتر فناوری، با ساخت رباتهای قاتل، جهان را درمعرض خطر قرار میدهند. سازمان غیردولتی هلندی پکس (Dutch NGO Pax) شرکتها را با سه معیار رتبهبندی کرده است. این سه معیار عبارتاند از:
آیا در حال توسعه فناوری مرتبط با هوش مصنوعی مرگبار هستند؟؛
آیا مشغول انجام پروژههای نظامی مرتبط هستند؟؛
آیا به منع مشارکت در پروژههای مربوط به آینده متعهد شدهاند یا خیر؟؛
فرانک اسلیپر، نویسندهی اصلی گزارش منتشرشده گفت:
چرا شرکتهایی مانند مایکروسافت و آمازون انکار نمیکنند درحالحاضر، مشغول تولید چنین سلاحهای بسیار بحثبرانگیزی هستند که بدون دخالت مستقیم انسان میتوانند به کشتن افراد تصمیم بگیرند؟
استفاده از هوش مصنوعی در سیستمهای تسلیحاتی که بهطور مستقل به آنها اجازهی انتخاب و حمله به هدف داده میشود، بحثهای اخلاقی زیادی در سالهای اخیر برانگیخته است. منتقدان هشدار میدهند چنین اقداماتی میتواند امنیت بینالمللی را بهخطر بیندازد و پس از اختراع باروت و بمب اتمی، به انقلاب سوم در ساخت جنگافزارها منجر شود.روز چهارشنبهی گذشته، هیئتی از کارشناسان دولتی دربارهی سیاستهای مربوط به سلاحهای مستقل کشنده جلسهای در مقر سازمان ملل در ژنو ترتیب دادند تا دربارهی سلاحهای متعارف خاص بحث و تبادلنظر کنند.
برخلاف آمازون و مایکروسافت، گوگل که سال گذشته «اصول راهنما و پایهای جلوگیری از استفاده از هوش مصنوعی در سیستمهای تسلیحاتی» را منتشر کرده بود، در سوی دیگر این ردهبندی بههمراه سافت بانک ژاپن در زمرهی شرکتهایی با «بهترین عملکرد» قرار گرفته است. این در حالی است که ۲۲ شرکت در وضعیت «نگرانی متوسط» و ۲۱ شرکت دیگر در وضعیت «نگرانی شدید» قرار داشتند.
در این فهرست، نام دو شرکت بزرگ و نامآشنا، آمازون و مایکروسافت بهچشم میخورد که هر دو با پیشنهاد ۱۰ میلیارد دلاری پنتاگون برای تأمین زیرساختهای خدمات ابری برای ارتش ایالات متحده مواجه شدهاند. از دیگر شرکتهای بزرگ فناوری که در دستهی «نگرانی شدید» قرار دارند، میتوان به پلنتیر (Palantir) اشاره کرد. این شرکت در سازمان سرمایهگذاری موردحمایت سیا ریشه دارد و ۸۰۰ میلیون دلاری برای ساخت سیستم هوش مصنوعی به آن اعطا شده است که میتواند به سربازان کمک کند بهطور همزمان منطقهی نبرد را تحلیل کنند.
استوارت راسل، استاد علوم کامپیوتر در دانشگاه برکلی، به خبرگزاری AFP گفت:
سلاحهای مستقل بهناچار به سلاحهای مقیاس کشتار جمعی تبدیل خواهند شد؛ زیرا اگر به دخالت انسان در این حلقه نیاز نباشد، تنها با وجود یک فرد میتوان یکمیلیون سلاح یا صدمیلیون اسلحه شلیک کرد.
او افزود:
واقعیت این است که سلاحهای مستقل را شرکتها و نه دولتها تولید خواهند کرد. به همین دلیل، این شرکتها با بهراهانداختن کمپینهایی برای جلوگیری از متداولشدن سلاحهای خودکار، میتوانند نقش تعیینکنندهای ایفا کنند.
توسعهی هوش مصنوعی برای اهداف نظامی بحث و اعتراضهای بسیاری در این صنعت بهوجود آورده است. سال گذشته گوگل از تمدید قرارداد پنتاگون بهنام پروژهی هوش مصنوعی Maven امتناع کرد؛ پروژهای که از یادگیری ماشین برای تمایز افراد و اشیاء در فیلمهای پهپادی استفاده میکرد. همچنین، این غول دنیای جستوجو به برنامهی وزارت دفاع آمریکا موسوم به «برنامهی زیرساختهای دفاعی شرکتهای مشترک» (JEDI) خاتمه داد؛ درحالیکه آمازون و مایکروسافت امیدوار بودند از این برنامه برای قرارداد خدمات ابری خود استفاده کنند.
در این گزارش آمده است کارکنان مایکروسافت نیز با قرارداد ارتش آمریکا برای استفاده از هدست واقعیت افزوده و هولولنز (HoloLens) بهمنظور «افزایش قابلیت مرگآوری» در میدان نبرد مخالفت کردهاند.
مشکلات احتمالی آینده
سلاحهای کاملا خودکار، کشتن انسانها را آسانتر و ارزانتر از همیشه میکنند. چالشی که در ظاهر هم بسیار خطرناک بهنظر میرسد. بهعلاوه مخالفان سلاحهای خودکار اعتقاد دارند احتمالا عواقب دردناکتری در انتظار انسانها خواهد بود.
اگر توسعهی سلاحهای LAWS ادامه پیدا کند، سلاحها ارزانتر از همیشه خواهند شد. همین امروز هم افراد عادی علاقهمند میتوانند با هزینهای پایین پهپاد بسازند. با توسعهی فناوری هم قیمتها روزبهروز بیشتر کاهش مییابند. بهعلاوه وقتی رباتها در نبردهای جنگی استفاده شوند، احتمال تصاحب و بهرهبرداری از آنها توسط همگان وجود دارد. درواقع نبردها به محلی برای توسعه و گسترش فناوری ساخت پهپادهای قاتل ارزان بدل خواهند شد.
سلاحهای خودکار مرگبار میتوانند در کاربردهای بسیار وحشتناکی همچون پاکسازی نژادی یا قتل عام دستهای از انسانها استفاده شوند. آریل کان مدیر ارتباطات مؤسسهی تحقیقات آیندهی زندگی (Future of Life Institute) اعتقاد دارد سلاحهای آینده را میتوان برای هدفگیری دستهای خاص از انسانها برنامهریزی کرد. او چنین رویکردی را یکی از سادهترین کاربردهای فناوری رباتهای خودکار میداند.
بیشتر بخوانید:هوش مصنوعی جای انسان را می گیرد
پس از بررسیهای بالا، به موضوع و پیامدی گستردهتر در توسعهی هوش مصنوعی میرسیم. درحالحاضر میتوان آمریکا را پیشرفتهترین کشور در حوزهی یادگیری ماشین و هوش مصنوعی دانست. احتمالا ارتش آمریکا هم هیچ تضمینی بر استفاده نکردن از این مزیت در میدان نبرد ندارد. والش اعتقاد دارد ارتش آمریکا میخواهد برتری فناوری خود را دربرابر رقبا حفظ کند.
استدلال آمریکاییها بر حفظ برتری فناورانه نسبت به رقبای سیاسی، ترسناکترین سناریوهای احتمالی را برای آیندهی هوش مصنوعی ایجاد میکنند. سناریوهایی که از نظر کارشناسان هوش مصنوعی واقعا نگرانکننده هستند. بسیاری از محققان اعتقاد دارند سیستمهای پیشرفتهی هوش مصنوعی ظرفیتهای بسیاری برای فاجعههای مرگبار دارند. از نگاه آنها پیشرفت چنین فناوریهایی میتواند به آیندهای فاجعهبار منجر شود که شاید شانسی برای جبران آن نداشته باشیم. بهعلاوه اگر مسیر را کاملا اشتباه برویم، شاید درنهایت به نابودی کل بشریت ختم شود.
برای جلوگیری از آیندهای که در بالا متصور شدیم، توسعهی هوش مصنوعی باید در شرایطی باز، با همکاری همگان و با دقت بالا انجام شود. محققان نباید تحقیقات حیاتی هوش مصنوعی را در خفا و شرایطی انجام دهند که هیچکس توانایی شناسایی اشتباهات آنها را نداشته باشد. اگر تحقیقات هوش مصنوعی با مشارکت و نظر همگان انجام شود، میتوان با احتمال بالایی مشکلات حیاتی توسعهی هوش مصنوعی پیشرفته را شناسایی کرد.
علاوهبر مخفی نبودن تحقیقات هوش مصنوعی، باید از عجله در آن هم خودداری کرد. کان در بخش دیگری از مصاحبه میگوید:
ما میخواهیم جلوی یک مسابقه و نبرد در حوزهی هوش مصنوعی را بگیریم. هیچکس از نبرد در حوزهی هوش مصنوعی خشنود نمیشود، اما به این معنی نیست که چنین نبردی رخ نمیدهد. بهعلاوه نبرد بر سر توسعهی سلاحها با این فناوری، میتواند به نبردی تمامعیار منجر شود.
بههرحال اگر آمریکا یا هر کشور پیشرفتهی دیگر از برتریهای فناورانهی خود در توسعهی سلاحهای مبتنی بر هوش مصنوعی استفاده کند، دیگر کشورها هم تحقیقات خود را در این حوزه افزایش میدهند. در چنین شرایطی اشتباهات طراحی و محاسباتی در حوزهی هوش مصنوعی، بیشتر و مرگبارتر خواهند بود.