نگرانیهای جدی امنیتی برای پژوهشگران هوش مصنوعی
به گزارش اقتصادنیوز به نقل از آنا، محققان نمونههایی از سیستمهای هوش مصنوعی را پیدا کردند که دورویی میکنند، بلوف میزنند و وانمود میکنند که انسان هستند و در هر بار آزمایش، رفتار خود را بر اساس شرایط تغییر میدهند. این سیستمها میتوانند در بازیهای رومیزی انسانها را فریب دهند، ساختار پروتئینها را رمزگشایی کنند و مکالمههایی قابل قبول داشته باشند، اما در این میان دانشمندان هشدار دادهاند که سیستمهای هوش مصنوعی همان طور که پیشرفتهتر میشوند، فریبکارتر هم میشوند.
احساس امنیت کاذب
این تحلیل که توسط محققان موسسه فناوری ماساچوست (ام آی تی) انجام شده است، نمونههای گستردهای از سیستمهای هوش مصنوعی را شناسایی میکند که خیانتکار و بلوفزن هستند و تظاهر به انسان بودن میکنند. حتی یکی از این سیستمها رفتار خود را در طول آزمایشهای امنیتی به گونهای تغییر داد که احساس امنیت کاذب ایجاد کرد و حسابرسها را فریب داد.
پیتر پارک (Peter Park)، محقق ایمنی وجودی هوش مصنوعی در ام آی تی و نویسنده این تحقیق گفت: با پیشرفت قابلیتهای فریبندۀ سیستمهای هوش مصنوعی، خطراتی که برای جامعه ایجاد میکنند جدیتر میشود.
پروژه آموزش فریبکاری
پس از آن که متا، مالک فیسبوک، برنامهای به نام «سیسرو» را توسعه داد و متوجه شد این سیستم در بیشتر بازیهای رومیزی محبوب جهان از جمله بازی مشهور «دیپلماسی» به کار رفته است پیتر پارک تحریک شد که درباره متا تحقیق و تفحص کند. متا اظهار داشت که سیسرو به گونهای آموزش دیده است که «تا حد زیادی صادق و کمککننده» باشد و هرگز به متحدان انسانیاش از پشت خنجر نزند.
پارک گفت: توضیح متا بسیار مشکوک بود، زیرا «از پشت خنجر زدن» یکی از مهمترین مفاهیم بازی دیپلماسی است.
پارک و همکارانش دادههای در دسترس عموم را غربال کردند و موارد متعددی از سیسرو را شناسایی کردند که دروغهای از پیش برنامهریزیشده گفته بود و تبانی کرده بود تا بازیکنان دیگر را به توطئه بکشاند و حتی وانمود کرده که داشته با دوستش تلفنی حرف میزده تا برای عملکرد ضعیف خودش بهانه بیاورد!
پارک گفت: «ما متوجه شدیم که هوش مصنوعی متا در فریبکاری استاد شده است.» تیم پژوهشی ام آی تی نمونههای مشابهی از رفتار فریبکارانه هوش مصنوعی را در بازیهای دیگر با موضوع اقتصادی نیز پیدا کردند.
پاسخ شرکت «متا»
سخنگوی متا در پاسخ گفته است: «سیسرو یک پروژه تحقیقاتی بود و مدلهایی که محققان ما ساختند صرفاً برای بازی دیپلماسی آموزش دیده بودند. ما در شرکت متا به طور منظم نتایج تحقیقاتمان را به اشتراک میگذاریم و هیچ برنامهای برای استفاده از این تحقیق یا آموختههای آن در محصولات خود نداریم.»
پارک میگوید: «اگر فلان سیستم هوش مصنوعی در یک شرایط ایمن است معنیاش این نیست که در همه شرایط دیگر هم ایمن است، شاید فقط در همان آزمایش تظاهر به ایمن بودن کرده باشد!»
این بررسی که در مجله پتِرنز (Patterns) منتشر شده است، از دولتها میخواهد تا قوانین ایمنی هوش مصنوعی با در نظر گرفتن احتمال فریبکاری بررسی کند چرا که این سیستمها اگر بتوانند ظرفیت فریبکاری خود را ارتقاء دهند شاید دیگر از کنترل انسانها خارج شوند.
پروفسور آنتونی کوهن، استاد استدلال خودکار در دانشگاه لیدز و موسسه آلن تورینگ، میگوید: «ویژگیهای مطلوب برای یک سیستم هوش مصنوعی عبارتند از: صداقت، مفید بودن و بیضرر بودن، اما همانطور که در مقالات علمی نیز آمده است، این ویژگیها میتوانند در تضاد با یکدیگر باشند، بیش از حد صادق باشند و به احساسات دیگران آسیب برسانند، یا در پاسخ به سوالی در مورد چگونگی ساخت بمب مفید باشند! بنابراین، فریب نیز گاهی میتواند ویژگی مطلوب یک سیستم هوش مصنوعی باشد. نویسندگان، خواستار تحقیقات بیشتر در مورد چگونگی کنترل صداقت هستند که اگرچه چالش برانگیز است، اما گامی در جهت محدود کردن عواقب مضر آنها خواهد بود.»
این گزارش از مجله گاردین به فارسی برگردان شده است.