یک سناریوی مرگبار درباره چت جیپیتی/ هوش مصنوعی بشریت را تهدید می کند؟
به گزارش اقتصادنیوز به نقل از اکوایران، در سر مقاله شماره 22 آپریل سال 2023 آمده است که هوش مصنوعی نه تنها مشاغل، دقت حقایق و آبرو و اعتبار را تهدید میکند بلکه وجود بشریت را نیز تهدید کرده و همین باعث درخواست برای توقف توسعهی این فناوری شده است اما آیا محققان بیش از حد واکنش نشان دادهاند؟
«آیا باید تمامی مشاغل، از جمله مشاغل رضایت بخش خود را ماشینی کنیم؟ آیا باید ذهنهای غیرانسانی را پرورش دهیم که ممکن است تعدادشان از ما پیشی بگیرد، هوشمندتر از ما شوند و در نهایت جایگزین ما شوند؟ آیا باید خطر از دست دادن کنترل تمدن خود را به جان بخریم؟»
این سؤالات ماه گذشته در نامه ای سرگشاده توسط مؤسسه آینده زندگی Future of Life Institute مطرح شد. این نامه خواستار یک «توقف» شش ماهه در پروژه های فوق پیشرفته هوش مصنوعی شده و توسط بزرگان فناوری از جمله ایلان ماسک امضا شد. این برجستهترین نمونه تاکنون است که نشان میدهد چگونه پیشرفت سریع در هوش مصنوعی باعث ایجاد نگرانی در مورد خطرات بالقوه این فناوری شده است.
یک سناریوی مرگبار
اخیرا چت جی پی تی که یک چت بات مدل زبانی بزرگ (llms) است و توسط شرکت OpenAI توسعه یافته است، حتی سازندگان خود را با استعداد غیرمنتظره اش غافلگیر کرده است. این تواناییهای نوظهوری شامل همه چیز می شود. از حل پازلهای منطقی و نوشتن کدهای کامپیوتری گرفته تا شناسایی فیلمها از روی خلاصه داستانها که با اموجی ((Emoji نوشته شده اند.
این مدلها میتوانند رابطه انسانها با رایانه، دانش و حتی با خودشان را تغییر دهند. طرفداران هوش مصنوعی درباره پتانسیل آن برای حل مشکلات بزرگ با توسعه داروهای جدید، طراحی مواد جدید برای کمک به مبارزه با تغییرات جوی یا از بین بردن پیچیدگی های انرژی همجوشی بحث میکنند. اما برای دیگران، این واقعیت که قابلیت های هوش مصنوعی در حال پیشی گرفتن از درک سازندگانش است، یک سناریوی علمی-تخیلی را که در آن یک ماشین از مخترع خود پیشی می گیرد و اغلب با عواقب مرگبار همراه است، زنده می کند.
ترکیبی جوشان از هیجان و ترس
این ترکیب جوشان از هیجان و ترس، سنجش فرصت ها و خطرات را دشوار می کند. اما می توان از سایر صنایع و از تغییرات فناوری گذشته درس گرفت. پس چه چیزی تغییر کرده است که هوش مصنوعی را بسیار توانمندتر کرده است؟ چقدر باید ترسید؟ و دولت ها چه باید بکنند؟
اکونومیست در این قسمت به بررسی مدل های زبانی بزرگ و آینده ی آن پرداخته است.
موج اول سیستمهای هوش مصنوعی مدرن، که یک دهه پیش پدیدار شد، بر روی دادههای آموزشی با برچسبگذاری دقیق تکیه داشت. هنگامی که در معرض تعداد کافی نمونه برچسبگذاری شده قرار میگیرند، میتوانند کارهایی مانند تشخیص تصاویر یا رونویسی گفتار را بیاموزند. سیستمهای امروزی نیازی به برچسبگذاری اولیه ندارند و در نتیجه میتوان با استفاده از مجموعه دادههای بسیار بزرگتری که از منابع آنلاین گرفته شدهاند، آموزش ببینند. مدل های زبانی بزرگ در واقع می تواند در کل اینترنت آموزش ببینند - که توانایی های خوب و بد آنها را توضیح می دهد.
زمانی که چت جی پی تی در نوامبر منتشر شد، این قابلیت ها برای عموم مردم آشکار شد. یک میلیون نفر در عرض یک هفته از آن استفاده کردند وسپس 100 میلیون نفر در عرض دو ماه. بعد هم به سرعت از آن برای تولید انشاهای مدرسه و سخنرانی های عروسی استفاده شد. محبوبیت چت جی پی تی و اقدام مایکروسافت برای گنجاندن آن دربینگ، موتور جستجوی خود، شرکت های رقیب را بر آن داشت تا آن ها نیز چت بات های خود را منتشر کنند.
تهدیدی برای بشریت؟
برخی از این موارد نتایج عجیبی به همراه داشت. چت بات بینگ( Bing Chat) به یک روزنامه نگار پیشنهاد کرد که همسرش را ترک کند. چت جی پی تی توسط یک استاد حقوق به افترا متهم شده است. مدل های زبانی بزرگ، پاسخهایی را ارائه میکند که ظاهرا حقیقت دارد اما اغلب حاوی اشتباهات واقعی یا جعل هستند. با این حال، مایکروسافت، گوگل و سایر شرکتهای فناوری شروع به استفاده از llms در محصولات خود کردهاند تا به کاربران در ایجاد اسناد و انجام کارهای دیگر کمک کنند.
شتاب اخیر در قدرت و دید سیستمهای هوش مصنوعی و افزایش آگاهی از تواناییها و نقصهای آنها، این نگرانی را ایجاد کرده است که این فناوری اکنون به سرعت در حال پیشرفت است که نمیتوان آن را به طور ایمن کنترل کرد. از این رو فراخوان برای توقف و نگرانی فزاینده برای این است که هوش مصنوعی می تواند نه تنها مشاغل، صحت مطالب و آبرو واعتبار، بلکه موجودیت خود بشریت را نیز تهدید کند.
انقراض؟ شورش؟
ترس از اینکه ماشینها مشاغل را بدزدند، به قرنها پیش بر میگردد. اما تاکنون فناوری جدید، مشاغل جدیدی را برای جایگزینی مشاغلی که ویران کرده، ایجاد کرده است. اما آیا ممکن است که این بار متفاوت باشد؟ جابجایی ناگهانی در بازار کار را نمی توان رد کرد، حتی اگر تا کنون هیچ نشانه ای از آن وجود نداشته باشد. فناوری های قبلی جایگزین کارهای غیر ماهر شده بود، اما llms میتواند برخی از کارهای کارگران یقه سفید (کارکنانی که پشت میز کار می کنند) ، مانند خلاصه کردن اسناد و نوشتن کد را انجام دهد.
درجه خطر هوش مصنوعی به شدت مورد بحث قرار گرفته است. کارشناسان به گروه های مختلف نقسیم شده اند. در یک نظرسنجی از محققان هوش مصنوعی که در سال 2022 انجام شد، 48٪ فکر کردند که حداقل 10٪ احتمال دارد که تاثیر هوش مصنوعی "بسیار بد (مثلاً انقراض انسان)" باشد. اما 25٪ گفتند که خطر 0٪ است. بقیه ریسک را 5 درصد اعلام کردند. کابوس این است که یک هوش مصنوعی پیشرفته میتواند با ساختن سم یا ویروس یا ترغیب انسان به انجام اقدامات تروریستی باعث آسیب در مقیاس گسترده می شود.محققان نگرانند که اهداف آینده هوش مصنوعی ممکن است با اهداف خالقان آنها همسو نباشد.
این سناریوها را نباید نادیده گرفت. اما همه اینها شامل مقدار زیادی حدس و گمان است. همچنین برخی در مورد خطرات هوش مصنوعی اغراق میکنند. اعمال مقررات سنگین، یا یک توقف، امروز واکنشی بیش از حد به نظر میرسد. توقف نیز غیرقابل اجرا خواهد بود.
مقررات لازم است، اما به دلایل پیش پا افتاده تر از نجات بشریت. سیستم های هوش مصنوعی موجود نگرانی های واقعی را در مورد سوگیری، حریم خصوصی و حقوق مالکیت معنوی ایجاد می کند. با پیشرفت فناوری، مشکلات دیگری نیز ممکن است آشکار شوند. نکته کلیدی این است که بین وعده هوش مصنوعی و ارزیابی خطرات تعادل برقرار کنید و برای سازگاری با آن آماده باشید.
رویکرد دولت ها به هوش مصنوعی
تاکنون دولت ها سه رویکرد متفاوت را در پیش گرفته اند. در یک انتهای این طیف بریتانیا قرار دارد که به قوانین یا نهادهای نظارتی جدیدی نیست اما مقررات موجود را برای سیستمهای هوش مصنوعی اعمال میکند. هدف افزایش سرمایه گذاری و تبدیل بریتانیا به یک "ابرقدرت هوش مصنوعی" است. آمریکا نیز رویکرد مشابهی را در پیش گرفته است، اگرچه دولت بایدن اکنون درباره تعیین قوانین سیستم های هوش مصنوعی نظرات عموم کاربران را درخواست کرده است.
اتحادیه اروپا موضع سختگیرانه تری اتخاذ می کند. قانون پیشنهادی آن، استفادههای مختلف از هوش مصنوعی را بر اساس درجه ریسک طبقهبندی میکند وهرچه درجه خطر افزایش یابد به نظارت سخت تری نیاز دارد. برخی از کاربردهای هوش مصنوعی به طور کلی ممنوع هستند، مانند شناسایی بایومتریک از راه دور. شرکت هایی که قوانین را زیر پا بگذارند جریمه خواهند شد. برای برخی از منتقدان، این مقررات را خفه کننده میدانند.
رویکرد چین در قبال هوش مصنوعی؛ مطابقت با ارزش های سوسیالیستی
گروه سوم معتقدند که حتی رویکرد سخت گیرانه تری لازم است. دولتها باید با هوش مصنوعی مانند داروها رفتار کنند. یعنی آزمایشهای دقیق و تأیید اولیه قبل از انتشار عمومی. چین برخی از این کارها را انجام میدهد و شرکتها را ملزم میکند تا محصولات هوش مصنوعی را ثبت کنند و قبل از عرضه، بازبینی امنیتی را انجام دهند. اما در حقیقت هدف از این نظارت فقط امنیت نیست. یک شرط کلیدی درچین این است که محتوای هوش مصنوعی باید با ارزش های اساسی سوسیالیستی مطابقت داشته باشد.
چه باید کرد؟
چه باید کرد؟ بعید است که رویکردی مثل رویکرد بریتانیا، کافی باشد. اگر هوش مصنوعی به اندازه ماشینها، هواپیماها و داروها یک فناوری مهم باشد – که دلایل خوبی برای پذیرش آن وجود دارد - پس مانند آنها به قوانین جدیدی نیاز دارد. بر این اساس، مدل اتحادیه اروپا نزدیکترین مدل به هدف است، اگرچه سیستم طبقهبندی آن بیش از حد پیچیده است و رویکرد مبتنی بر اصول انعطافپذیرتر خواهد بود. افشای قانع کننده در مورد نحوه آموزش سیستم ها، نحوه عملکرد و نحوه نظارت آنها و نیاز به بازرسی، با قوانین مشابه در سایر صنایع نیز قابل استفاده خواهد بود.
این می تواند در صورت نیاز، مقررات سخت گیرانه تری را در طول زمان فراهم کند. همچنین ممکن است معاهدات بیندولتی در صورت بروز شواهد خطر ایجاد شوند؛ مشابه پیمانهای بر تسلیحات هستهای. برای نظارت بر این خطر، دولتها میتوانند زمانی که شرکتها انگیزهای برای سرمایهگذاری به دراین حوزه ها ندارند، بدنهای را با الگوبرداری از سرن ( سازمان اروپایی پژوهش های هسته ای که بزرگترین آزمایشگاه فیزیک ذره ای در جهان است و بیست کشور اروپایی عضو آن هستند) تشکیل دهند که میتواند درباره هوش مصنوعی مطالعه کند .
این فناوری قدرتمند خطرات جدیدی را ایجاد می کند، اما فرصت های خارق العاده ای را نیز ارائه می دهد. متعادل کردن این دو به معنای گام برداشتن با دقت است. یک رویکرد سنجیده امروزی میتواند پایههایی را فراهم کند که قوانین بیشتری را میتوان در آینده اضافه کرد. اما زمان شروع ساخت آن پایه ها اکنون فرا رسیده است.