
دیپمایند همه راههایی که AGI میتواند به دنیا آسیب برساند را تشریح کرده است
تاریخ انتشار:
مقدمه
با گسترش هیاهوی هوش مصنوعی در اینترنت، رهبران فناوری و کسبوکار به دنبال مرحله بعدی هستند. AGI، یا هوش عمومی مصنوعی، به ماشینی با هوش و قابلیتهای مشابه انسان اشاره دارد. اگر سیستمهای هوش مصنوعی امروزی در مسیر AGI قرار داشته باشند، ما به رویکردهای جدیدی نیاز داریم تا اطمینان حاصل کنیم که چنین ماشینی بر خلاف منافع انسانی عمل نکند.
چالشهای AGI
متأسفانه، ما چیزی به اندازه قوانین سهگانه رباتیک آیزاک آسیموف نداریم. محققان دیپمایند بر روی این مشکل کار کرده و یک مقاله فنی جدید منتشر کردهاند که توضیح میدهد چگونه میتوان AGI را بهطور ایمن توسعه داد. این مقاله شامل جزئیات زیادی است و ۱۰۸ صفحه قبل از منابع را شامل میشود. در حالی که برخی در حوزه هوش مصنوعی معتقدند AGI یک رویای غیرواقعی است، نویسندگان مقاله دیپمایند پیشبینی میکنند که این امر ممکن است تا سال ۲۰۳۰ محقق شود. با در نظر گرفتن این موضوع، آنها تلاش کردند تا خطرات یک هوش مصنوعی مصنوعی مشابه انسان را درک کنند که ممکن است به "آسیبهای شدید" منجر شود.
همه راههایی که AGI میتواند به بشریت آسیب برساند
این کار چهار نوع خطر AGI را شناسایی کرده و پیشنهاداتی برای کاهش این خطرات ارائه میدهد. تیم دیپمایند به رهبری شین لگ، یکی از بنیانگذاران شرکت، نتایج منفی AGI را به چهار دسته تقسیم کرد: سوءاستفاده، عدم تطابق، اشتباهات و خطرات ساختاری. سوءاستفاده و عدم تطابق در مقاله به تفصیل مورد بحث قرار گرفتهاند، اما دو مورد آخر بهطور مختصر پوشش داده شدهاند.

سوءاستفاده
اولین مشکل ممکن، سوءاستفاده، بهطور بنیادی مشابه خطرات فعلی هوش مصنوعی است. با این حال، از آنجا که AGI بهطور تعریف قویتر خواهد بود، آسیبهایی که میتواند ایجاد کند بسیار بیشتر است. یک فرد بدخواه که به AGI دسترسی دارد، میتواند از سیستم برای ایجاد آسیب استفاده کند، بهعنوان مثال، با درخواست از سیستم برای شناسایی و بهرهبرداری از آسیبپذیریهای روز صفر یا ایجاد یک ویروس طراحیشده که میتواند بهعنوان سلاح بیولوژیکی استفاده شود.
دیپمایند میگوید شرکتهایی که AGI را توسعه میدهند، باید آزمایشهای گستردهای انجام دهند و پروتکلهای ایمنی قوی پس از آموزش ایجاد کنند. بهعبارتی، ایجاد حفاظهای هوش مصنوعی بهطور جدی. آنها همچنین پیشنهاد میکنند روشی برای سرکوب قابلیتهای خطرناک بهطور کامل ایجاد شود که گاهی به آن "فراموشی" گفته میشود، اما مشخص نیست که آیا این کار ممکن است بدون محدود کردن قابل توجه مدلها.
عدم تطابق

عدم تطابق عمدتاً چیزی نیست که ما باید در مورد آن با هوش مصنوعی تولیدی فعلی نگران باشیم. این نوع آسیب AGI بهعنوان ماشینی سرکش تصور میشود که محدودیتهای تحمیلشده توسط طراحان خود را کنار گذاشته است. آیا کسی به یاد ترمیناتورها افتاد؟ بهطور خاصتر، هوش مصنوعی اقداماتی انجام میدهد که میداند توسعهدهنده قصد انجام آن را نداشته است. دیپمایند میگوید استاندارد آنها برای عدم تطابق در اینجا از فریب یا نقشهکشی ساده که در ادبیات فعلی مشاهده میشود، پیشرفتهتر است.
برای جلوگیری از این امر، دیپمایند پیشنهاد میکند توسعهدهندگان از تکنیکهایی مانند نظارت تقویتشده استفاده کنند، که در آن دو نسخه از یک هوش مصنوعی خروجی یکدیگر را بررسی میکنند، تا سیستمهای قویتری ایجاد کنند که احتمال سرکش شدن آنها کم باشد. اگر این کار موفق نشود، دیپمایند پیشنهاد میکند که تستهای استرس شدید و نظارت برای مشاهده هر نشانهای از اینکه یک هوش مصنوعی ممکن است علیه ما عمل کند، انجام شود. نگهداشتن AGIها در محیطهای مجازی با امنیت سختگیرانه و نظارت مستقیم انسانی میتواند به کاهش مشکلات ناشی از عدم تطابق کمک کند. بهطور کلی، اطمینان حاصل کنید که یک دکمه "خاموش" وجود دارد.
اشتباهات
اگر از سوی دیگر، یک هوش مصنوعی نمیدانست که خروجی آن آسیبزا خواهد بود و اپراتور انسانی نیز قصد آسیب رساندن نداشت، این یک اشتباه است. ما با سیستمهای هوش مصنوعی فعلی بهوفور با این نوع اشتباهات مواجه هستیم—یادتان هست که گوگل گفت چسب روی پیتزا بزنید؟ "چسب" برای AGI میتواند بسیار چسبندهتر باشد. دیپمایند اشاره میکند که ارتشها ممکن است به دلیل "فشار رقابتی" AGI را بهکار بگیرند، اما چنین سیستمهایی ممکن است اشتباهات جدی مرتکب شوند زیرا به وظایف بسیار پیچیدهتری نسبت به هوش مصنوعیهای امروزی مأمور خواهند شد.
این مقاله راهحل خوبی برای کاهش اشتباهات ارائه نمیدهد. این به این معناست که نباید به AGI اجازه دهیم که از ابتدا خیلی قدرتمند شود. دیپمایند خواستار استقرار تدریجی و محدود کردن اختیارات AGI است. مطالعه همچنین پیشنهاد میکند که دستورات AGI از طریق یک سیستم "سپر" عبور داده شوند که اطمینان حاصل کند قبل از پیادهسازی ایمن هستند.
خطرات ساختاری
در نهایت، خطرات ساختاری وجود دارد که دیپمایند آنها را بهعنوان پیامدهای ناخواسته اما واقعی سیستمهای چندعاملی که به وجود پیچیده انسانی ما کمک میکنند، تعریف میکند. بهعنوان مثال، AGI میتواند اطلاعات نادرستی ایجاد کند که بهقدری قابلباور باشد که ما دیگر ندانیم به چه کسی یا چه چیزی اعتماد کنیم. این مقاله همچنین احتمال این را مطرح میکند که AGI ممکن است کنترل بیشتری بر سیستمهای اقتصادی و سیاسی بهدست آورد، شاید با طراحی طرحهای تعرفهای سختگیرانه. سپس یک روز، ما به بالا نگاه میکنیم و متوجه میشویم که ماشینها بهجای ما در حال کنترل هستند. این دسته از خطرات همچنین سختترین خطرات برای محافظت در برابر آنهاست زیرا به نحوه عملکرد مردم، زیرساختها و نهادها در آینده بستگی دارد.
AGI در پنج سال آینده؟
هیچکس نمیداند که آیا ماشینهای تفکر واقعاً تنها چند سال با ما فاصله دارند یا خیر، اما بسیاری از رهبران فناوری به اندازه کافی مطمئن هستند که این را بگویند. بخشی از مشکل در پیشبینی ظهور AGI این است که ما هنوز فقط در حال حدس زدن هستیم که چگونه هوش مشابه انسان در یک ماشین تجلی خواهد یافت. هر کسی که در سالهای اخیر از سیستمهای هوش مصنوعی تولیدی استفاده کرده باشد، بهبودهای واقعی و ملموسی را مشاهده کرده است، اما آیا این مسیر به قابلیتهای واقعی مشابه انسان منجر میشود؟
ما بهتازگی با تولسی دُشی، مدیر مدیریت محصول برای جمنای گوگل، در مورد طیف وسیعی از موضوعات هوش مصنوعی، از جمله AGI صحبت کردیم. دُشی گفت: "افراد مختلف تعاریف متفاوتی از AGI دارند و بنابراین بسته به اینکه با چه کسی صحبت میکنید، اینکه چقدر به AGI نزدیک یا دور هستیم، یک گفتگوی متفاوت است. آنچه من میگویم این است که LLMها، جمنای و آموزش مدلهای هوشمندتر و هوشمندتر در مسیر مدلهایی هستند که به شدت هوشمند خواهند بود. و این به خودی خود ارزش زیادی دارد."
این مقاله کلام نهایی در مورد ایمنی AGI نیست—دیپمایند اشاره میکند که این تنها یک "نقطه شروع برای گفتگوهای حیاتی" است. اگر تیم درست بگوید و AGI در پنج سال کوتاه دنیا را متحول کند، این گفتگوها باید به زودی انجام شوند. در غیر این صورت، خوب، بسیاری از مردم به نوعی احمق به نظر خواهند رسید.