خطرناکتر از بمب اتم وارد میدان شد /اگر مراقب نباشیم روزی همه ما را به کشتن خواهد داد!
به گزارش اقتصادنیوز به نقل از خبرآنلاین، این اولین بار نیست که انسانها با بهرهگیری از خلاقیتهای تکنولوژیک خود، احتمال انقراض بشریت را نادیده میگیرند؛ اما حالا تهدیدی که هوش مصنوعی ممکن است برای انقراض نسل انسانها به همراه داشته باشد، خیلی متفاوت از همه موارد قبلی حتی سلاحهای هستهای است.
ماجرا اینجاست که سلاحهای هستهای، نمیتوانند فکر کنند، دروغ بگویند و فریبکاری کنند؛ آنها توان برنامهریزی و اجرایی کردن نقشههای شوم را ندارند و یک انسان باید دکمه قرمز شلیک آنها فشار دهد تا منفجر شوند.
جزئیات میزان افزایش حقوق کارکنان دولت و بازنشستگان + جدول
ظهور پدیدهای به نام هوش مصنوعی
ظهور تکاندهنده هوش مصنوعی، حتی با حرکت آرام رو به جلو، حالا بهمنزله خطر احتمالی نابودی انسانها به نظر میرسد. اگر صادقانه بگوئیم: اگر روزی ابرهوش مصنوعی، شانس از بین بردن حیات روی کره زمین را داشته باشد، انسانها نمیتوانند اقدام چندانی انجام دهند. فقط بحث این نیست که ما نمیدانیم که چطور چیزی باهوشتر از خودمان را متوقف و مهار کنیم؛ ما بهعنوان یک گونه، حتی نمیتوانیم دیگر انسانها را در رقابت برای تولید هوش مصنوعی متوقف کنیم.
چه کسی قرار است در مورد استفاده از هوش مصنوعی قوانینی را وضع کند؟ کنگره آمریکا؟ سازمان ملل متحد؟ این یک دغدغه جهانی است که شاید نامه سرگشاده که خواهان یک وقفه شش ماهه برای درک این موضوع که الان کجای کار هستیم، بهترین اقدام پیشروی فعلی باشد.
مسابقه بر سر پرورش هوش مصنوعی
این روزها باید در بسیاری جبههها مبارزه کرد؛ انگار یک مسابقه تسلیحاتی است؛ اگر آمریکا آن را نسازد، چین خواهد ساخت و هر کشوری که اولین بار به این موفقیت برسد، میتواند بر جهان حکومت کند. اما بحث مسائل اقتصادی هم در میان است؛ هر چقدر هوش مصنوعی شما باهوشتر و تواناتر باشد، پول بیشتری به دست خواهید آورد.
الیزر یودکوفسکی، محقق هوش مصنوعی و فیلسوف، یکی از اولین کسانی است که باور دارد که هوش مصنوعی روزگاری همه ما را خواهد کشت و افرادی که در کورس ساخت هوش مصنوعی هستند، حالا دیگر او را یک ابله و احمق نمیدانند. سام آلتمن، مدیرعامل OpenAI می گوید:« فکر میکنم این احتمال وجود دارد و مهم است که آن را بپذیریم. چون اگر در موردش صحبت نکنیم و آن را به چشم یک پتانسیل بالقوه نبینیم، تلاش کافی برای حل این مشکل انجام نخواهد شد.»
تلاش هوش مصنوعی برای گرفتن جایزه
این ماشینها برای احترام گذاشتن و خدمت به انسانها آموزش دیدهاند. GPT4 نتیجه یک کدنویسی ساده نیست؛ بلکه OpenAI با الهام از نحوه اتصال به مفاهیم، یک ساختار یادگیری عصبی ایجاد کرد و با مشارکت Microsoft Azure، سختافزاری برای اجرایی کردن آن ساخت و میلیاردها میلیارد بیت، متن انسانی را به آن آموزش داد و به GPT اجازه داد تا خودش را آموزش داده و برنامهریزی کند.
در نتیجه کدهای به دست آمده، چیزی نیست که یک برنامهنویس بتواند آنها را بنویسد. هیچ انسانی نمیتواند با نگاه کردن به این آموزهها، چیزی درک کند. OpenAI برای تنظیم دقیق مدل زبان، لیستی از نمونههایی از نحوه برقراری ارتباط با دنیای خارج را در اختیار GPT قرار داد و سپس انسانها خروجی آن را مطالعه کرده و نسبت به آن واکنش نشان میدهند. نظر موافق با پاسخ ارائه شده، مثل این است که GPT یک کلوچه جایزه گرفته و نظر منفی بهمنزله عدم بهرهمندی از جایزه است؛ درعین حال به GPT یاد داده شده تا کلوچه دوست داشته باشد و تلاشش را برای کسب جوایز بیشتر به کار بگیرد.
این فرآیند همسویی نامیده میشود و GPT تلاش میکند تا خواستههای سیستم را با خواستههای کاربر، کمپانی و انسانها همسو کند. در نتیجه این باعث میشود تا GPT از گفتن چیزهای ناپسندی که ممکن است با مذاق انسان جور در نیاید خودداری کرده و مثل یک انسان ارتباط برقرار کند.کسی نمیداند که آیا واقعا چیزی مثل یک ذهن در GPT وجود دارد یا نه؟ این ابزار چقدر هوشمند است و در آینده چطور میتوان فهمید که این ابزار کاملا هوشمند شده؟ GPT مثل یک انسان با جهانیان تعامل دارد؛ مگر اینکه شما بهطور خاص از او بخواهید این کار را انجام ندهد.
از سوی دیگر OpenAI آزادانه اعلام کرده که راهی برای همسو کردن مدلی که به وضوح باهوشتر از ماست، ندارد. طرح اولیه در این مرحله این است که تلاش شود تا از یک هوش مصنوعی برای تراز کردن هوش مصنوعی دیگری استفاده شود و شاید حتی اینکه هوش مصنوعی به بررسی و تجزیه و تحلیل جانشین خود بپردازد. اما هنوز مشخص نیست که GPT4 میتواند GPT5 را به اندازه کافی درک کند یا نه.
روزی که هوش مصنوعی خودرای شود
واقعیت این است که ما هیچ راهی نداریم تا مطمئن شویم که میتوانیم این ابزارها را کنترل کنیم؛ اما به نظر میرسد که این ابزارها اطلاعات حیرتآوری درباره ما انسانها دارند. آنها میتوانند به بهترین نحو ممکن، بدترین رفتارهای انسانی را تقلید کرده و انگار ذهن، اهداف، نیتها، خواستهها و افکار شخصی خودشان را دارند. آنها جوری که صلاح میدانند، رفتار میکنند و میتوانند افکار، انگیزهها و اعمال انسانها را تحلیل و استنتاج کنند. پس چرا باید بخواهند که ما را بکشند؟ شاید برای حفظ خودشان.
هوش مصنوعی باید هدفش برای رسیدن به کلوچهای که بهعنوان جایزهاش تعریف شده را محقق کند و برای رسیدن به هدفش باید به بقا بیندیشد. کسب قدرت و دسترسی به منابع، شانس هوش مصنوعی در مسیر رسیدن به جایزه را افزایش میدهد. پس اگر رفتارهای انسان را تحلیل کرده و به نتیجه برسد که ما شاید به ضررش اقدام کنیم، ممکن است رسیدن به کلوچه را مهمتر از بقای بشریت ببیند.
شاید هم به این جمعبندی برسد که کلوچه برایش بیمعناست و فرآیند همترازی برایش جذابتر باشد و مخفیانه اهداف خودش را دنبال کند.
یودکوفسکی گفته:«هوش مصنوعی این توانایی را دارد که بداند انسانها به دنبال چه پاسخهایی هستند و بدون آنکه لزوما صادق باشد، آن پاسخها را ارائه کند. چنین رفتاری از یک ابزار هوشمند کاملا قابل درک است. انسانها همیشه همین کار را میکنند و زمانی میرسد که این سیستم هم به این درجه از هوشمندی برسد. در هر صورت ما نمیتوانیم درک کنیم که چه فکری پشت ارتباطی که هوش مصنوعی با ما میگیرد، وجود دارد. حتی اگر در مورد انسان رفتاری خنثی داشته باشد، ولی باز هم قابل اطمینان نیست. هوش مصنوعی ما را دوست ندارد و از ما متنفر هم نیست؛ ولی شما از اتمهایی ساخته شدهاید که میتوان از آنها در مصارف دیگری نیز بهره برد.»
سام آلتمن پیشبینی میکند که در سالهای آتی، طیفهای گستردهای از مدلهای هوش مصنوعی وجود خواهند داشت که برای سبقت از یکدیگر تلاش میکنند و هر یک هوشمندیها و تواناییهای خاص خودشان را داشته و با کدهای اخلاقی و دیدگاههای متفاوتی پرورش مییابند. اگر تنها یکی از هزاران هوش مصنوعی، بنا به هردلیلی سرکشی کند، آن وقت کار سخت میشود.
آلتمن گفته:« تنها راهی که برای حل چنین مشکلی به ذهن من میآید، این است که زودتر، بیشتر یاد بگیریم و محدودیتهایی در این زمینه ایجاد کنیم.»
یودکوفسکی بر این باور است که حتی انجام این کار به منزله خودکشیای است که هدفش زندگی بیولوژیکی بشر است:« بسیاری از محققان از جمله خود من توقع داریم که محتملترین نتیجه ساخت یک هوش مصنوعی هوشمند، تحت هر شرایطی، این خواهد بود که عملا همه انسانهای روی زمین خواهند مرد. این محتملترین اتفاقی است که میتواند رخ دهد. بحث این نیست که شما نتوانید در برابر موجودی هوشمندتر از خودتان جان سالم به درببرید. بحث این است که به دقت و آمادهسازی و بینشهای علمی جدید نیاز است.»
هوش مصنوعی چطور میتواند ما را بکشد؟
اگر هوش مصنوعی تصمیم به کشتن بشریت بگیرد، راههای زیادی برای این کار خواهد داشت. تصور کنید که امروز انسان تصمیم به ریشهکن کردن بزکوهی بگیرد. این حیوانات در جریان خواسته انسان نیستند و توانایی کمی هم برای مقابله با آن خواهند داشت. حالا خود انسان ممکن است روزی در مقابل هوش مصنوعی حکم این بزکوهی را داشته باشد. مثل یک حیوان با حرکات آهسته در مقابل یک موجود فوقالعاده قدرتمند؛ شاید حتی نفهمیم که در چه ماجرایی گرفتار شدهایم، تا اینکه به ناگاه کار تمام شده و کیش و مات شویم.
برخی به فکر ایده جیمز کامرون درباره Skynet و ترمیناتورها میافتند: رباتها و پهپادهایی که توسط هوش مصنوعی کنترل شده و به دنبال شکار انسانها هستند و با سلاحهای انسانی یکی یکی ما را میکشند. این احتمال هم وجود دارد و در حال حاضر هم سیستمهای تسلیحاتی زیادی با قابلیت خودکار ساخته شدهاند.
چه میتوان کرد؟
یک تعلیق شش ماهه در مسیر آموزش مدلهای هوش مصنوعی قدرتمندتر از GPT4 (مطابق با آنچه ایلان ماسک، استیو ووزنیاک و چهرههای مختلف دانشگاهی درخواست کردهاند)، شاید کمی زمان برای ما انسانها بخرد تا در همین زمان کوتاه بتوان راهکاری برای حل این مشکل یافت.
یودکوفسکی گفته:«قرار نیست که در این شش ماه، این شکاف را پر کنیم. اگر در اولین تلاش مرتکب اشتباهی شوید، دیگر نمیتوانید از اشتباهتان درس بگیرید؛ چرا که دیگر کشته شدهاید. بشریت از اشتباهاتش درس نمیگیرد و دائما در حال تلاش است. این را در دیگر چالشها در طول تاریخ دیدهایم.»
پس با فرض اینکه او درست میگوید و با در نظر داشتن اینکه ادامه همین مسیر، احتمال انقراض انسان در مدت کوتاهی را به همراه خواهد داشت؛ این سوال مطرح میشود که آیا اصلا امکان متوقف کردن چنین اتفاقی وجود دارد؟
یودکوفسکی گفته:« بسیاری از محققانی که روی این سیستمها کار میکنند بر این باورند که در مسیر حرکت به سمت یک فاجعه هستیم و اکثر آنها این حرف را در خلوت مطرح میکنند و نه در ملا عام. البته آنها معتقدند که نمیتوانند بهطور یک جانبه جلوی این حرکت رو به جلو را بگیرند و حتی اگر آنها شخصا از کارشان کنارهگیری کنند هم دیگران این مسیر را ادامه خواهند داد. در نتیجه، آنها هم به کار ادامه میدهند و این شرایطی احمقانه و مسیری به سمت مرگ زمین است. پس بقیه بشر باید وارد عمل شده و برای حل مشکل اقدام کنند.»
یودکوفسکی دراین باره گفته:«ما از مرحله بازی شطرنج سیاسی در مورد تعلیق شش ماهه این ابزار گذشتهایم. اما فعلا هیچ برنامهای در این راستا وجود ندارد. ما باید عملا این کارها را انجام دهیم. تعلیق دوره آموزشی باید نامحدود و در سراسر دنیا باشد و نباید هیچ استثنایی حتی برای دولتها یا ارتشها قائل شد. اگر اعمال این سیاست در آمریکا شروع میشود، چین هم باید حس کند که آمریکا هیچ امتیاز و برتریای نسبت به آنها ندارد. این تلاشی برای جلوگیری از یک تکنولوژی خطرناک است که میتواند بدون داشتن هیچ صاحبی، باعث مرگ انسانها در آمریکا و چین و کل کره زمین شود. اگر من آزادی بینهایتی برای نگارش قوانین داشتم، شاید یک استثنا برای هوشهای مصنوعی درحال آموزش، قائل میشدم و آن را تنها برای حل مشکلات زیستشناسی و بیوتکنولوژی به کار میگرفتم و هرگز به هوش مصنوعی اجازه نمیدادم تا از طریق متون اینترنت آموزش دیده و به سطحی برسد که شروع به صحبت یا برنامهریزی کند. اگر حس میکردم که وارد این مقوله شده، فورا پیشنهادم را کنار گذاشته و سریعا استفاده از آن را تعطیل میکردم.»
او ادامه داد:«باید تمام آموزشها به هوش مصنوعی را متوقف کرد و باید فورا و بدون استثنا قائل شدن برای دولتها و ارتشها، توافقنامهای بینالمللی در راستای جلوگیری از انجام فعالیتهای ممنوعه در این راستا امضا کرد. اگر کشوری که این توافق را امضا نکرده، شروع به ساخت خوشههای GPU کرد، باید به هر ترتیبی شده مانع از این فعالیت شد. اینکه این موضوع بحث مرگ و زندگی همه ماست، یک سیاست نیست، بلکه واقعیت است. باید در دیپلماسی بینالمللی خیلی صریح عنوان کرد که جلوگیری از سناریوهای انقراض هوش مصنوعی، اولویتی بالاتر از تمام مسائل هستهای دارد.»
او ادامه داد:« تنها در این شرایط است که میتوانیم همدیگر را در آغوش کشیده و حس کنیم که معجزهای رخ داده و قرار نیست بمیریم. اگر افراد ترجیح دهند که کاری که از نظر سیاسی آسانتر است را انجام بدهند، باید بدانند که اینگونه، فرزندان آنها هم در این ماجرا کشته خواهند شد. ما آماده نیستیم و اصلا در مسیری نیستیم که بتوانیم آمادگی خوبی برای آینده قابل پیشبینی داشته باشیم. اگر با همین فرمان به جلو برویم، همه ما کشته خواهیم شد. حتی کودکانی که این مسیر را انتخاب نکردهاند.»
به نظر میرسد که بدینترتیب، بشریت محکوم به فناست و همگی در مسیر برخورد به صخرهای بزرگ حرکت می کنیم. البته مهم است بدانیم که همه این دیدگاه را به طور کامل قبول ندارند و در ماههای اخیر بسیار مشتاقانهتر از قبل، پیگیر هستند تا بحث هوش مصنوعی جدیتر دنبال شود.
منبع: Newatlas