یک سرهنگ نیروی هوایی آمریکا میگوید هنگامی که درباره حمله یک پهپاد مجهز به هوش مصنوعی به اپراتور آن صحبت کرده، دچار اشتباهی سهوی شده است.
سرهنگ تاکر همیلتون، رئيس بخش هوش مصنوعی و عملیات در نیروهای هوایی آمریکا، در جریان کنفرانسی صحبت میکرد که از سوی جامعه سلطنتی هوانوردی سازماندهی شده بود.
سرهنگ همیلتون در صحبتهایش از یک عملیات شبیهسازی صحبت کرده بود که در جریان آن اپراتور یک پهپاد مجهز به هوش مصنوعی، به کرات جلوی کامل شدن ماموریت آن را برای نابود کردن پایگاه پرتاب موشک زمین به هوا را گرفته است.
به گفته این مقام نیروی هوایی آمریکا، در نهایت هوش مصنوعی در این عملیات، علیرغم اینکه آموزش دیده بود تا علیه اپراتور خود دست به حمله نزند، تصمیم گرفت که برج ارتباطات را ویران کند تا جلوی ارتباط اپراتور با خود را بگیرد.
هشدار در قبال هوش مصنوعی
اخیرا شماری از دستاندرکاران حوزه هوش مصنوعی نسبت به خطر آن برای بشریت هشدار دادهاند. هرچند، این کارشناسان نسبت به خطرات این تکنولوژی جدید اتفاق نظر ندارند.
پروفسور یوشوآ بنجیو، یکی از سه دانشمند فنآوری است که پدربزرگهای هوش مصنوعی لقب گرفتهاند. او هفته گذشته به بیبیسی گفت به نظر او ارتش به هیچوجه نباید از قدرت هوش مصنوعی استفاده کند. او گفت حوزه نظامی یکی از بدترین جاهایی است که میتوان از هوش مصنوعی استفاده کرد.
یک سناریوی از پیش طراحی شده
امروز صبح چندین ساعت را صرف گفتگو با کارشناسان در حوزه دفاع و حوزه هوش مصنوعی کردم. تمام کسانی که با من در این زمینه صحبت کردند نسبت به ادعاهای سرهنگ همیلتون، پیش از توضیحات تازهاش، ابراز تردید کردند.
یکی از متخصصان حوزه دفاع گفت به نظر میرسد روایتی که سرهنگ همیلتون تعریف کرده دستکم بخش مهمی از ابعاد ماجرا را از قلم انداخته است، با فرض اینکه ایرادهای بیشتری نداشته باشد.
در شبکههای اجتماعی نیز عدهای عنوان کردند که اگرهم چنین آزمایشی انجام شده باشد، احتمالا به صورت یک سناریوی از پیش تعیین شده بوده است، تا اینکه در طول عملیات هوش مصنوعی را آموزش دهند.
استیو رایت، پروفسور مهندسی هوا و فضا در دانشگاه غرب انگلستان است که در حوزه پهپادها نیز تخصص دارد. از او پرسیدم نظرش درباره ماجرایی که سرهنگ همیلتون تعریف کرده چیست، به شوخی به من گفت همیشه طرفدار فیلمهای ترمیناتور بوده است.
به گفته او «در سیستمهای کامپیوتری کنترل هوانوردی، دو موضوع مهم وجود دارد: کار درست را انجام بده، کار غلط را انجام نده. این ماجرا نمونه کلاسیک نمونه دوم است.»
وی افزود: «در دنیای واقعی ما این موضوع را اینگونه حل میکنیم که همیشه کامپیوتر دومی هست که با شیوههای قدیمی برنامه ریزی شده و به محض اینکه کامپیوتر اول کار غریبی انجام دهد، کامپیوتر دوم جلوی آن را خواهد گرفت.»
bbc