پایگاه خبری تحلیلی تیتربرتر

تقویم تاریخ

امروز: سه شنبه, ۰۴ ارديبهشت ۱۴۰۳ برابر با ۱۴ شوّال ۱۴۴۵ قمری و ۲۳ آوریل ۲۰۲۴ میلادی
دوشنبه, ۱۸ شهریور ۱۳۹۸ ۱۷:۵۵
۱۱
۰
نسخه چاپی

ربات های قاتل به میدان می آیند

«ربات های قاتل» به میدان می آیند
متخصصان یادگیری ماشین و فناوری‌های نظامی اعتقاد دارند ساخت ربات‌هایی با قابلیت تصمیم‌گیری بدون دخالت انسان، از لحاظ فناورانه ساده محسوب می‌شود.

تصور کنید ارتشی بزرگ قصد دارد شهری را در جریان نبرد جنگی تصرف کند. فرماندهان نمی‌خواهند نیروهای نظامی در نبردهای خانه‌به‌خانه درگیر شوند و تلفات زیادی داشته باشند. آن‌ها ابتدا گروهی از پهپادهای کوچک را با دستور‌العملی ساده به منطقه می‌فرستند: هر فردی که سلاح حمل می‌کند را بکشید. چند ساعت بعد، شهر برای نفوذ نیروهای انسانی امن خواهد بود.

سناریوی بالا شبیه به صحنه‌ای از یک فیلم علمی تخیلی به‌نظر می‌رسد. شاید باور نکنید که فناوری مورد نیاز برای پیوند دادن داستان بالا به حقیقت، هم‌اکنون در دستان انسان‌ها قرار دارد. ارتش‌های متعددی در سرتاسر جهان تلاش می‌کنند تا این داستان را به واقعیت پیوند دهند.

متخصصان یادگیری ماشین و فناوری‌های نظامی اعتقاد دارند ساخت ربات‌هایی با قابلیت تصمیم‌گیری بدون دخالت انسان، از لحاظ فناورانه ساده محسوب می‌شود. ربات‌های مورد نظر آن‌ها، می‌توانند بدون درگیر کردن انسان‌ها در فرایندهای تصمیم‌گیری، هدف‌های کشتار خود را انتخاب کنند. به‌بیان‌دیگر هیچ فردی از هیچ‌یک از مراحل انتخاب تا کشتن سوژه دخالت نخواهد کرد. با قدرتمندتر شدن فناوری‌های تشخیص چهره و الگوریتم‌های تصمیم‌گیری، توسعه‌ی چنین روندی روز‌به‌روز هم آسان‌تر می‌شود.

سلاح‌هایی که در بالا به آن‌ها اشاره کردیم، به‌عنوان «سلاح‌های مرگ‌بار خودکار» در اسناد نظامی مطرح می‌شوند. درواقع همان نام «ربات قاتل» را می‌توان برای چنین فناوری استفاده کرد. سلاح‌های مذکور برخلاف تصور مردم عادی به‌صورت ربات‌های انسان‌نما نخواهند بود و عموما، پهپاد هستند. درواقع ساختن ربات‌های انسان‌نمای مبارز هنوز مراحل دشواری در پیش دارد. به‌هرحال ساختن پهپادهای مرگ‌بار آسان‌تر از روندهای کنونی خواهد بود و قطعا محصولاتی ارزان‌تر هم تولید می‌شوند.

اکنون و با توسعه‌ی فناوری رباتیک، محققان حوزه‌ی هوش مصنوعی و سیاست‌های عمومی تلاش می‌کنند تا جامعه و دولت‌مردان را از خطرات ربات‌های قاتل مطلع کنند. آن‌ها می‌گویند چنین ربات‌هایی نه‌تنها در فیلم‌های علمی تخیلی، بلکه در زندگی واقعی نیز ایده‌ی بدی هستند. هوش مصنوعی قطعا کاربردهایی در کاهش اثرات مرگ‌بار جنگ و آسیب‌های آن دارد. منتهی اسلحه‌های کاملا خودکار می‌توانند بحران‌های جدی استراتژیک، فنی و اخلاقی ایجاد کنند. به‌همین‌دلیل دانشمندان و فعالان اجتماعی تلاش می‌کنند تا سازمان ملل متحد و دولت‌های سرتاسر جهان را به ایجاد ممنوعیت‌های پیشگیرانه تشویق کنند. آن‌ها امیدوار هستند که ربات‌های قاتل را در همان فیلم‌های علمی تخیلی نگه دارند.

مکانیزم ربات‌‌های قاتل

آمریکایی‌ها و بسیاری کشورهای دیگر هم‌اکنون نیز از پهپادهای نظامی استفاده می‌کنند. این پهپادها در حال حاضر نیز در آسمان بسیاری از کشورها درحال پرواز هستند. البته در نمونه‌های کنونی، انسان‌ها تصمیم نهایی را در شلیک آتش به پهپاد ارسال می‌کنند. سلاح‌های مرگ‌بار خودکار (به اختصار با LAWS شناخته می‌شوند) هنوز به‌صورت کامل وجود خارجی ندارند؛ اما فناوری لازم برای جایگزین کردن انسان‌های تصمیم‌گیر با الگوریتم، طراحی شده است.

استوارت راسل استاد علوم کامپیوتر دانشگاه یوسی برکلی و محقق هوش مصنوعی درباره‌ی سلاح‌های خودکار می‌گوید:

توسعه‌ی سلاح‌های خودکار از لحاظ فناورانه آسان‌تر از خودروهای خودران است. افرادی که در فناوری‌های مرتبط کار می‌کنند، توسعه‌ی چنین سلاح‌هایی را حداکثر تا دو سال آینده آسان و ممکن می‌دانند.

سلاح‌های خودکار آینده شبیه به فیلم ترمیناتور نخواهند بود. ساده‌ترین نسخه‌های آن‌ها از سخت‌افزارهای کنونی پهپادهای نظامی بهره می‌برند. البته پهپادهای کنونی ویدئوی زنده‌ای از محل درگیری را به مرکز نظامی ارسال می‌کنند که سرباز مورد نظر، براساس ویدئو دستور شلیک می‌دهد. درمقابل، سلاح‌های خودکار سربازر را از چرخه خارج می‌کنند و تصمیم‌گیری توسط الگوریتم انجام می‌شود.

الگوریتم‌ها را می‌توان با فهرستی از اهداف احتمالی تغذیه کرد. آن‌ها با بررسی ویدئوهای خود و پس از اطمینان حداکثری از شناسایی فرد مورد نظر، شلیک را انجام می‌دهند. به‌علاوه می‌توان الگوریتم را با نمونه‌هایی از میدان نبرد آموزش داد. پس از مدتی الگوریتم متوجه می‌شود که در چه موقعیت‌هایی احتمال صدور فرمان حمله بیشتر خواهد بود. ماشین مورد نظر در آن موقعیت‌ها به‌صورت خودکار دستور حمله را صادر و اجرا می‌کند. در نمونه‌ای دیگر می‌توان دستور ساده‌ای به الگوریتم داد تا با شناسایی بصری، هر فردی را که بدون پوشیدن یونیفرم‌های خودی، سلاح حمل کند، هدف قرار دهد.

توبی والش، استاد هوش مصنوعی در دانشگاه نیو ساوث ولز و فعال مبارز علیه توسعه‌ی سلاح‌های خودکار مرگ‌بار درباره‌ی آن‌ها می‌گوید:

وقتی درباره‌ی ربات‌های قاتل صحبت می‌کنیم، مردم فیلم ترمیناتور را تصور می‌کنند. آن‌ها فیلم‌های علمی تخیلی را در نظر می‌گیرند. مردم فکر می‌کنند این فناوری سال‌ها از ما فاصله دارد. درواقع سلاح‌های مرگ‌بار فناوری‌های ساده‌ای دارند که نزدیک‌تر از همیشه به ما هستند. به‌علاوه هم‌اکنون نیز نمونه‌های اولیه‌ی آن‌ها ساخته می‌شود.

در سال‌های گذشته، هوش مصنوعی با سرعت بالایی رشد کرده است. تشخیص چهره بیش از هیشه دقیق شد و شناسایی اجسام نیز با همان سرعت پیشرفت کرد. فناوری‌هایی که برای توسعه‌ی سلاح‌های مرگ‌بار خودکار، الزامی هستند. 

روش‌های جدید به سیستم‌های هوش مصنوعی امکان انجام کارهایی را می‌دهند که چند سال پیش غیرممکن به‌نظر می‌رسید. از نوشتن داستان تا طراحی و ساخت چهره‌های قلابی امروزه به‌راحتی توسط هوش مصنوعی انجام می‌شود. به‌علاوه فناوری امروز می‌تواند در بازی‌های جنگی آنلاین تصمیم‌های استراتژیک کاربردی بگیرد که در توسعه‌ی سلاح‌های مرگ‌بار خودکار بسیار کاربردی خواهد بود.

پیشرفت‌های بالا ثابت می‌کنند که توسعه‌ی سلاح‌های خودکار مرگ‌بار امروز از غیرممکن به ساده تبدیل شده است. پیشرفت‌ها نیز به‌ این خاطر ایجاد شدند که ما مردم جهان هیچ اجماع یا نظرسنجی را پیرامون صحیح بودن یا نبودن توسعه‌ی آن‌ها انجام نداده‌ایم.

ساخت ربات‌های قاتل دنیا توسط آمازون و مایکروسافت

به‌گزارش خبرگزاری فرانسه (AFP)، براساس نتایج نظرسنجی از افراد مهم و تأثیرگذار حوزه‌ی فناوری درباره‌ی سلاح‌های مستقل کشنده و مرگ‌بار، آمازون و مایکروسافت و اینتل سه غول بزرگ و برتر فناوری، با ساخت ربات‌های قاتل، جهان را درمعرض خطر قرار می‌دهند. سازمان غیردولتی هلندی پکس (Dutch NGO Pax) شرکت‌ها را با سه معیار رتبه‌بندی کرده است. این سه معیار عبارت‌اند از:

آیا در حال توسعه فناوری مرتبط با هوش مصنوعی مرگ‌بار هستند؟؛
آیا مشغول انجام پروژه‌های نظامی مرتبط هستند؟؛
آیا به منع مشارکت در پروژه‌های مربوط به آینده متعهد شده‌اند یا خیر؟؛
فرانک اسلیپر، نویسنده‌ی اصلی گزارش منتشرشده گفت:

چرا شرکت‌هایی مانند مایکروسافت و آمازون انکار نمی‌کنند در‌حال‌حاضر، مشغول تولید چنین سلاح‌های بسیار بحث‌برانگیزی هستند که بدون دخالت مستقیم انسان می‌توانند به کشتن افراد تصمیم بگیرند؟

استفاده از هوش مصنوعی در سیستم‌های تسلیحاتی که به‌طور مستقل به‌ آن‌ها اجازه‌ی انتخاب و حمله به هدف داده می‌شود، بحث‌های اخلاقی زیادی در سال‌های اخیر برانگیخته است. منتقدان هشدار می‌دهند چنین اقداماتی می‌تواند امنیت بین‌المللی را به‌خطر بیندازد و پس از اختراع باروت و بمب اتمی، به انقلاب سوم در ساخت جنگ‌افزارها منجر شود.روز چهارشنبه‌ی گذشته، هیئتی از کارشناسان دولتی درباره‌ی سیاست‌های مربوط به سلاح‌های مستقل کشنده جلسه‌ای در مقر سازمان ملل در ژنو ترتیب دادند تا درباره‌ی سلاح‌های متعارف خاص بحث و تبادل‌نظر کنند.

www.titrebartar.com

 

برخلاف آمازون و مایکروسافت، گوگل که سال گذشته «اصول راهنما و پایه‌ای جلوگیری از استفاده از هوش مصنوعی در سیستم‌های تسلیحاتی» را منتشر کرده بود، در سوی دیگر این رده‌بندی به‌همراه سافت بانک ژاپن در زمره‌ی شرکت‌هایی با «بهترین عملکرد» قرار گرفته‌ است. این در حالی‌ است که ۲۲ شرکت در وضعیت «نگرانی متوسط» و ۲۱ شرکت دیگر در وضعیت «نگرانی شدید» قرار داشتند.

در این فهرست، نام دو شرکت بزرگ و نام‌آشنا، آمازون و مایکروسافت به‌چشم می‌خورد که هر دو با پیشنهاد ۱۰ میلیارد دلاری پنتاگون برای تأمین زیرساخت‌های خدمات ابری برای ارتش ایالات متحده مواجه شده‌اند. از دیگر شرکت‌های بزرگ فناوری که در دسته‌ی «نگرانی شدید» قرار دارند، می‌توان به پلنتیر (Palantir) اشاره کرد. این شرکت در سازمان سرمایه‌گذاری موردحمایت سیا ریشه دارد و ۸۰۰ میلیون دلاری برای ساخت سیستم هوش مصنوعی به آن اعطا شده است که می‌تواند به سربازان کمک کند به‌طور هم‌زمان منطقه‌ی نبرد را تحلیل کنند.

استوارت راسل، استاد علوم کامپیوتر در دانشگاه برکلی، به خبرگزاری AFP گفت:

سلاح‌های مستقل به‌ناچار به سلاح‌های مقیاس کشتار جمعی تبدیل خواهند شد؛ زیرا اگر به دخالت انسان در این حلقه نیاز نباشد، تنها با وجود یک فرد می‌توان یک‌میلیون سلاح یا صدمیلیون اسلحه شلیک کرد.

او افزود:

واقعیت این است که سلاح‌های مستقل را شرکت‌ها و نه دولت‌ها تولید خواهند کرد. به‌ همین دلیل، این شرکت‌ها با به‌راه‌انداختن کمپین‌هایی برای جلوگیری از متداول‌شدن سلاح‌های خودکار، می‌توانند نقش تعیین‌کننده‌ای ایفا کنند.

توسعه‌ی هوش مصنوعی برای اهداف نظامی بحث و اعتراض‌های بسیاری در این صنعت به‌وجود آورده است. سال گذشته گوگل از تمدید قرارداد پنتاگون به‌نام پروژه‌ی هوش مصنوعی Maven امتناع کرد؛ پروژه‌ای که از یادگیری ماشین برای تمایز افراد و اشیاء در فیلم‌های پهپادی استفاده می‌کرد. همچنین، این غول دنیای جست‌وجو به برنامه‌ی وزارت دفاع آمریکا موسوم به «برنامه‌ی زیرساخت‌های دفاعی شرکت‌های مشترک» (JEDI) خاتمه داد؛ درحالی‌که آمازون و مایکروسافت امیدوار بودند از این برنامه برای قرارداد خدمات ابری خود استفاده کنند.

در این گزارش آمده است کارکنان مایکروسافت نیز با قرارداد ارتش آمریکا برای استفاده از هدست واقعیت افزوده و هولولنز (HoloLens) به‌منظور «افزایش قابلیت مرگ‌آوری» در میدان نبرد مخالفت کرده‌اند.

مشکلات احتمالی آینده

سلاح‌های کاملا خودکار، کشتن انسان‌ها را آسان‌تر و ارزان‌تر از همیشه می‌کنند. چالشی که در ظاهر هم بسیار خطرناک به‌نظر می‌رسد. به‌علاوه مخالفان سلا‌ح‌های خودکار اعتقاد دارند احتمالا عواقب دردناک‌تری در انتظار انسان‌ها خواهد بود. 

اگر توسعه‌ی سلاح‌های LAWS ادامه پیدا کند، سلاح‌‌ها ارزان‌تر از همیشه خواهند شد. همین امروز هم افراد عادی علاقه‌مند می‌توانند با هزینه‌ای پایین پهپاد بسازند. با توسعه‌ی فناوری هم قیمت‌ها روز‌به‌روز بیشتر کاهش می‌یابند. به‌علاوه وقتی ربات‌ها در نبردهای جنگی استفاده شوند، احتمال تصاحب و بهره‌برداری از آن‌ها توسط همگان وجود دارد. درواقع نبردها به محلی برای توسعه و گسترش فناوری ساخت پهپادهای قاتل ارزان بدل خواهند شد.

سلاح‌های خودکار مرگ‌بار می‌توانند در کاربردهای بسیار وحشتناکی همچون پاک‌سازی نژادی یا قتل عام دسته‌ای از انسان‌ها استفاده شوند. آریل کان مدیر ارتباطات مؤسسه‌ی تحقیقات آینده‌ی زندگی (Future of Life Institute) اعتقاد دارد سلاح‌های آینده را می‌توان برای هدف‌گیری دسته‌ای خاص از انسان‌ها برنامه‌ریزی کرد. او چنین رویکردی را یکی از ساده‌ترین کاربردهای فناوری ربات‌های خودکار می‌داند.

بیشتر بخوانید:هوش مصنوعی جای انسان را می گیرد

پس از بررسی‌های بالا، به موضوع و پیامدی گسترده‌تر در توسعه‌ی هوش مصنوعی می‌رسیم. درحال‌حاضر می‌توان آمریکا را پیشرفته‌ترین کشور در حوزه‌ی یادگیری ماشین و هوش مصنوعی دانست. احتمالا ارتش آمریکا هم هیچ تضمینی بر استفاده نکردن از این مزیت در میدان نبرد ندارد. والش اعتقاد دارد ارتش آمریکا می‌خواهد برتری فناوری خود را دربرابر رقبا حفظ کند.

استدلال آمریکایی‌ها بر حفظ برتری فناورانه نسبت به رقبای سیاسی، ترسناک‌ترین سناریوهای احتمالی را برای آینده‌ی هوش مصنوعی ایجاد می‌کنند. سناریوهایی که از نظر کارشناسان هوش مصنوعی واقعا نگران‌کننده هستند. بسیاری از محققان اعتقاد دارند سیستم‌های پیشرفته‌ی هوش مصنوعی ظرفیت‌های بسیاری برای فاجعه‌های مرگ‌بار دارند. از نگاه آن‌ها پیشرفت چنین فناوری‌هایی می‌تواند به آینده‌ای فاجعه‌بار منجر شود که شاید شانسی برای جبران آن نداشته باشیم. به‌علاوه اگر مسیر را کاملا اشتباه برویم، شاید درنهایت به نابودی کل بشریت ختم شود.

برای جلوگیری از آینده‌ای که در بالا متصور شدیم، توسعه‌ی هوش مصنوعی باید در شرایطی باز، با همکاری همگان و با دقت بالا انجام شود. محققان نباید تحقیقات حیاتی هوش مصنوعی را در خفا و شرایطی انجام دهند که هیچ‌کس توانایی شناسایی اشتباهات آن‌ها را نداشته باشد. اگر تحقیقات هوش مصنوعی با مشارکت و نظر همگان انجام شود، می‌توان با احتمال بالایی مشکلات حیاتی توسعه‌ی هوش مصنوعی پیشرفته را شناسایی کرد.

علاوه‌بر مخفی نبودن تحقیقات هوش مصنوعی، باید از عجله در آن هم خودداری کرد. کان در بخش دیگری از مصاحبه می‌گوید:

ما می‌خواهیم جلوی یک مسابقه و نبرد در حوزه‌ی هوش مصنوعی را بگیریم. هیچ‌کس از نبرد در حوزه‌ی هوش مصنوعی خشنود نمی‌شود، اما به این معنی نیست که چنین نبردی رخ نمی‌دهد. به‌علاوه نبرد بر سر توسعه‌ی سلاح‌ها با این فناوری، می‌تواند به نبردی تمام‌عیار منجر شود.

به‌هرحال اگر آمریکا یا هر کشور پیشرفته‌ی دیگر از برتری‌های فناورانه‌ی خود در توسعه‌ی سلاح‌های مبتنی بر هوش مصنوعی استفاده کند، دیگر کشورها هم تحقیقات خود را در این حوزه افزایش می‌دهند. در چنین شرایطی اشتباهات طراحی و محاسباتی در حوزه‌ی هوش مصنوعی، بیشتر و مرگ‌بارتر خواهند بود.



+ 11
مخالفم - 11
نظرات : 0
منتشر نشده : 0

شما هم می توانید دیدگاه خود را ثبت کنید



کد امنیتی کد جدید

تمام حقوق مادی و معنوی این پایگاه محفوظ و متعلق به سایت تیتربرتر می باشد .
هرگونه کپی و نقل قول از مطالب سايت با ذكر منبع بلامانع است.

طراحی سایت خبری