ابر هوش مصنوعی چه خطراتی برای انسان دارد؟
به گزارش اقتصاد نیوز و به نقل از گجت نیوز، استیون هاوکینگ، فیزیکدان مشهور پیش از مرگ در کنفرانسی که در لیسبون پرتغال برگزار شد خطاب به شرکتکنندگان عنوان کرد ممکن است بدترین رویداد تاریخ تمدن بشر با توسعه هوش مصنوعی رخ دهد. وی تاکید کرد دلایل زیادی وجود دارد که باید از ایجاد ابر هوش مصنوعی نگران باشیم. بسیاری از پژوهشگران این فناوری پیشرفته را به نام ابر هوش مصنوعی (ASI) معرفی میکنند و بر این باورند که این فناوری میتواند به قدرتمندترین فناوری تاریخ کره زمین تبدیل شود. برخی معتقدند ابر هوش مصنوعی میتواند وجود انسان را به چالش بکشد.
از زمانی که کامپیوترها توانستند بر اساس اطلاعات ورودی تصمیمگیری کنند، هوش مصنوعی نیز در زندگی جوامع بشری نفوذ کرده است. برای اینکه نگرانیهای بزرگانی چون استیون هاوکینگ یا ایلان ماسک را درک کنید، کافی است پای فیلمهای هالیوودی بنشینید تا متوجه شوید که هوش مصنوعی چگونه زندگی بشر را تهدید میکند و با قدرت عجیب خود میتواند به زندگی انسان پایان دهد. هرچند امروزه هوش مصنوعی بر اساس شرایط بنیادینی که انسانها تعیین کردهاند، عمل میکنند و هنوز به مرحله پیشرفتهای که انتظار داریم نرسیدهاند. به این سیستم یک هوش عملکردی مصنوعی (AFI) میگویند که فقط دستورات برنامهریزی شده را به خوبی انجام میدهد.
در حال حاضر این هوشهای مصنوعی بیشتر از پیشبینیهای انجام شده موفق بودهاند؛ برای مثال اخیرا این فناوریها توانستهاند انسانها را در رقابتهای بازیهای ویدیویی شکست دهند و این در حالی است که پیشبینی میشد چنین پیشرفتی در سالهای آینده رخ دهد. البته برخی از کارشناسان تاکید میکنند در آیندهای نزدیک رباتهای فوق هوشمند در زندگی بشر وارد خواهند شد، اما برخلاف نگرانیهای هاوکینگ برای انسان خطرساز نخواهند بود.
هماکنون هوش مصنوعی AlphaGo این توانایی را دارد تا انسانها را در بازیهای ویدیویی شکست دهد، اما در زمینه شرایط آبوهوایی فعلی کره زمین اطلاعاتی ندارد و فقط در زمینهای که برنامهریزی شده است رفتار میکند؛ به بیانی دیگر این هوش مصنوعی برای انسان خطری به همراه ندارد، اما آن هوش مصنوعی که ما از آن نگرانیم، هوش عمومی مصنوعی (AGI) است که به طور کامل رفتار ذهن انسان را تقلید میکند؛ یعنی همانند انسان در یک حوزه دانش مهارت داشته و میتواند میلیاردها بار سریعتر از انسان فکر کند. هر چند ممکن است این مدل از هوش مصنوعی خطرناک باشد، اما دانشمندان در این خصوص نگرانی ندارند.
هوش فرا انسانی
مشکلی که در توسعه AGI وجود دارد این است که امکان ندارد بتوانیم یک برنامه تصمیمگیری درختی برای هر سوالی که AGI ناچار به حل آن است، به وجود آوریم. در واقع انسانها نیز با این چالش روبهرو هستند. این چالش به ظرفیت انسان برای یادگیری و شکل دادن ارتباطات جدید در مغز مربوط میشود که چنین ویژگی ما را هوشمند کرده و این توانایی را میدهد تا مسائل را حل کنیم. به بیانی دیگر اگر ما روش حل یک مسئله را ندانیم، ابتدا آن را تجزیه و تحلیل کرده و سپس پاسخ آن را پیدا میکنیم. در حال حاضر چنین توانایی باعث شده است تا پیشرفتهترین سیستمهای هوش مصنوعی را توسعه دهیم.
برای این که یک سیستم به AGI تبدیل شود به یک ابزار کلیدی و قدرت برنامهنویسی پیشرفته نیاز است. از سویی زیستشناسی انسان به صورت خودکار مغز انسان را برای آموختن موارد جدید توسعه میدهد که این همان علتی است که نگرانیهای مربوط به هوش مصنوعی را افزایش داده است. تصور کنید سیستمی را ایجاد کردهایم که قادر است برنامههای ضروری خود را بازنویسی کند و از لحاظ مهارت و توناییهایی که انسان میتوان آن را انجام دهد، هوشمندتر کند. ممکن است این سیستم در ابتدا هوشمند نباشد، اما اگر از این تواناییها بهره ببرد، بدون شک به مرور زمان به قدرت زیادی دست پیدا خواهد کرد.
چگونه ابر هوش مصنوعی غیرفعال میشود؟
برخی بر این باورند زمانی که هوش مصنوعی خطرساز شد، کافی است آن را از برق خارج کنند تا غیرفعال شود، اما این امکان وجود نخواهد داشت؛ زیرا به همانگونه که نمیتوان یک ویروس رایانهای را با خاموش کردن کامپیوتر از بین ببریم، ابر هوش مصنوعی نیز با این روش نابود و غیرفعال نخواهد شد. در واقع همانطور که یک ویروس این توانایی را دارد در یک سیستم خود را مخفی، تکثیر و حتی سایر سیستمها را آلوده کند، از این رو یک ابر هوش مصنوعی نیز میتواند این موارد را انجام دهد. شرایط وقتی نگرانکننده میشود که باید بدانید ابر هوش مصنوعی از انسانها نیز هوشمندتر است و برای حفاظت از خود روشهای مختلفی را پیدا خواهد کرد.
دلیل توسعه ابر هوش مصنوعی چیست؟
بسیاری از مردم این سوال را مطرح میکنند که آیا راه دیگری برای توسعه این فناوری به جز روش AGI وجود ندارد؟ در واقع این ابر هوش مصنوعی همانند مغز انسان طراحی میشود و میتواند اتصالات عصبی جدیدی را به صورت خودکار به وجود آورد. در واقع اگر دانشمندان میخواهند از هوشهای مصنوعی ابتدایی یا همان AFI به توسعه بیشتری دست پیدا کنند، ایجاد ابر هوش مصنوعی تنها راه چاره است. به طور کلی یک راه برای جلوگیری از ایجاد ابر هوش مصنوعی وجود دارد که باید از پیشرفت و توسعه هوشهای مصنوعی جلوگیری کرد، اما کسی خواهان جلوگیری از توسعه علم نیست. هرچند این ابر هوش مصنوعی برای آسیب زدن به بشر پتانسیل زیادی دارد، اما برای سازندگانش منافع زیادی را به همراه خواهد داشت.
اگر کشوری بتواند ابر هوش مصنوعی را راهاندازی کند، بدون شک به قدرت زیادی دست پیدا خواهد کرد که همین عامل سایر کشورها را مجاب میکند تا به توسعه هوشهای مصنوعی روی آورند. برخی از کارشناسان بر این باورند که با توسعه این سیستم، یک نژاد هوش مصنوعی جدیدی به وجود خواهد آمد. از این رو باید از ایجاد و توسعه ابر هوش مصنوعی نگران باشیم؛ زیرا هر تکنولوژی جدیدی خطراتی را به همراه دارد و بدتر آنکه سوءاستفادهگران از آن بهره ببرند.
بزرگترین تهدید برای تمدن انسان
یک سیستمی که این توانایی را دارد برای خود تصمیمگیری کند، بدون شک قدرت نابودی انسانها را خواهد داشت و به همین دلیل برخی از دانشمندان میگویند ابر هوش مصنوعی بزرگترین تهدید برای تمدن انسان خواهد بود. از سویی دانشمندان خوشبین میگویند این سیستم قادر است تغییرات آبوهوایی را معکوس کرده و زندگی بشر بر روی زمین را بهبود بخشد. این هوش مصنوعی پیشرفته میتواند تغییرات اقلیمی را کاهش دهد، بیماریها را ریشهکن کند، به کمبود و قحطی پایان دهد، انسان را به جاودانگی برساند و حتی سفر با سرعت نور در کهکشانها را برای انسان فراهم کند. تاریخ به ما ثابت میکند هر تکنولوژی جدیدی هزینهبر خواهد بود، اما سرانجام برای تمدن بشر منافعی به دنبال دارد.