دیپ‌مایند همه راه‌هایی که AGI می‌تواند به دنیا آسیب برساند را تشریح کرده است

دیپ‌مایند همه راه‌هایی که AGI می‌تواند به دنیا آسیب برساند را تشریح کرده است

تاریخ انتشار:

دیپ‌مایند همه راه‌هایی که AGI می‌تواند به دنیا آسیب برساند را تشریح کرده است

مقدمه

با گسترش هیاهوی هوش مصنوعی در اینترنت، رهبران فناوری و کسب‌وکار به دنبال مرحله بعدی هستند. AGI، یا هوش عمومی مصنوعی، به ماشینی با هوش و قابلیت‌های مشابه انسان اشاره دارد. اگر سیستم‌های هوش مصنوعی امروزی در مسیر AGI قرار داشته باشند، ما به رویکردهای جدیدی نیاز داریم تا اطمینان حاصل کنیم که چنین ماشینی بر خلاف منافع انسانی عمل نکند.

چالش‌های AGI

متأسفانه، ما چیزی به اندازه قوانین سه‌گانه رباتیک آیزاک آسیموف نداریم. محققان دیپ‌مایند بر روی این مشکل کار کرده و یک مقاله فنی جدید منتشر کرده‌اند که توضیح می‌دهد چگونه می‌توان AGI را به‌طور ایمن توسعه داد. این مقاله شامل جزئیات زیادی است و ۱۰۸ صفحه قبل از منابع را شامل می‌شود. در حالی که برخی در حوزه هوش مصنوعی معتقدند AGI یک رویای غیرواقعی است، نویسندگان مقاله دیپ‌مایند پیش‌بینی می‌کنند که این امر ممکن است تا سال ۲۰۳۰ محقق شود. با در نظر گرفتن این موضوع، آنها تلاش کردند تا خطرات یک هوش مصنوعی مصنوعی مشابه انسان را درک کنند که ممکن است به "آسیب‌های شدید" منجر شود.

همه راه‌هایی که AGI می‌تواند به بشریت آسیب برساند

این کار چهار نوع خطر AGI را شناسایی کرده و پیشنهاداتی برای کاهش این خطرات ارائه می‌دهد. تیم دیپ‌مایند به رهبری شین لگ، یکی از بنیان‌گذاران شرکت، نتایج منفی AGI را به چهار دسته تقسیم کرد: سوءاستفاده، عدم تطابق، اشتباهات و خطرات ساختاری. سوءاستفاده و عدم تطابق در مقاله به تفصیل مورد بحث قرار گرفته‌اند، اما دو مورد آخر به‌طور مختصر پوشش داده شده‌اند.

The four categories of AGI risk, as determined by DeepMind.

سوءاستفاده

اولین مشکل ممکن، سوءاستفاده، به‌طور بنیادی مشابه خطرات فعلی هوش مصنوعی است. با این حال، از آنجا که AGI به‌طور تعریف قوی‌تر خواهد بود، آسیب‌هایی که می‌تواند ایجاد کند بسیار بیشتر است. یک فرد بدخواه که به AGI دسترسی دارد، می‌تواند از سیستم برای ایجاد آسیب استفاده کند، به‌عنوان مثال، با درخواست از سیستم برای شناسایی و بهره‌برداری از آسیب‌پذیری‌های روز صفر یا ایجاد یک ویروس طراحی‌شده که می‌تواند به‌عنوان سلاح بیولوژیکی استفاده شود.

دیپ‌مایند می‌گوید شرکت‌هایی که AGI را توسعه می‌دهند، باید آزمایش‌های گسترده‌ای انجام دهند و پروتکل‌های ایمنی قوی پس از آموزش ایجاد کنند. به‌عبارتی، ایجاد حفاظ‌های هوش مصنوعی به‌طور جدی. آنها همچنین پیشنهاد می‌کنند روشی برای سرکوب قابلیت‌های خطرناک به‌طور کامل ایجاد شود که گاهی به آن "فراموشی" گفته می‌شود، اما مشخص نیست که آیا این کار ممکن است بدون محدود کردن قابل توجه مدل‌ها.

عدم تطابق

table of AGI risks

عدم تطابق عمدتاً چیزی نیست که ما باید در مورد آن با هوش مصنوعی تولیدی فعلی نگران باشیم. این نوع آسیب AGI به‌عنوان ماشینی سرکش تصور می‌شود که محدودیت‌های تحمیل‌شده توسط طراحان خود را کنار گذاشته است. آیا کسی به یاد ترمیناتورها افتاد؟ به‌طور خاص‌تر، هوش مصنوعی اقداماتی انجام می‌دهد که می‌داند توسعه‌دهنده قصد انجام آن را نداشته است. دیپ‌مایند می‌گوید استاندارد آنها برای عدم تطابق در اینجا از فریب یا نقشه‌کشی ساده که در ادبیات فعلی مشاهده می‌شود، پیشرفته‌تر است.

برای جلوگیری از این امر، دیپ‌مایند پیشنهاد می‌کند توسعه‌دهندگان از تکنیک‌هایی مانند نظارت تقویت‌شده استفاده کنند، که در آن دو نسخه از یک هوش مصنوعی خروجی یکدیگر را بررسی می‌کنند، تا سیستم‌های قوی‌تری ایجاد کنند که احتمال سرکش شدن آنها کم باشد. اگر این کار موفق نشود، دیپ‌مایند پیشنهاد می‌کند که تست‌های استرس شدید و نظارت برای مشاهده هر نشانه‌ای از اینکه یک هوش مصنوعی ممکن است علیه ما عمل کند، انجام شود. نگه‌داشتن AGIها در محیط‌های مجازی با امنیت سخت‌گیرانه و نظارت مستقیم انسانی می‌تواند به کاهش مشکلات ناشی از عدم تطابق کمک کند. به‌طور کلی، اطمینان حاصل کنید که یک دکمه "خاموش" وجود دارد.

اشتباهات

اگر از سوی دیگر، یک هوش مصنوعی نمی‌دانست که خروجی آن آسیب‌زا خواهد بود و اپراتور انسانی نیز قصد آسیب رساندن نداشت، این یک اشتباه است. ما با سیستم‌های هوش مصنوعی فعلی به‌وفور با این نوع اشتباهات مواجه هستیم—یادتان هست که گوگل گفت چسب روی پیتزا بزنید؟ "چسب" برای AGI می‌تواند بسیار چسبنده‌تر باشد. دیپ‌مایند اشاره می‌کند که ارتش‌ها ممکن است به دلیل "فشار رقابتی" AGI را به‌کار بگیرند، اما چنین سیستم‌هایی ممکن است اشتباهات جدی مرتکب شوند زیرا به وظایف بسیار پیچیده‌تری نسبت به هوش مصنوعی‌های امروزی مأمور خواهند شد.

این مقاله راه‌حل خوبی برای کاهش اشتباهات ارائه نمی‌دهد. این به این معناست که نباید به AGI اجازه دهیم که از ابتدا خیلی قدرتمند شود. دیپ‌مایند خواستار استقرار تدریجی و محدود کردن اختیارات AGI است. مطالعه همچنین پیشنهاد می‌کند که دستورات AGI از طریق یک سیستم "سپر" عبور داده شوند که اطمینان حاصل کند قبل از پیاده‌سازی ایمن هستند.

خطرات ساختاری

در نهایت، خطرات ساختاری وجود دارد که دیپ‌مایند آنها را به‌عنوان پیامدهای ناخواسته اما واقعی سیستم‌های چندعاملی که به وجود پیچیده انسانی ما کمک می‌کنند، تعریف می‌کند. به‌عنوان مثال، AGI می‌تواند اطلاعات نادرستی ایجاد کند که به‌قدری قابل‌باور باشد که ما دیگر ندانیم به چه کسی یا چه چیزی اعتماد کنیم. این مقاله همچنین احتمال این را مطرح می‌کند که AGI ممکن است کنترل بیشتری بر سیستم‌های اقتصادی و سیاسی به‌دست آورد، شاید با طراحی طرح‌های تعرفه‌ای سخت‌گیرانه. سپس یک روز، ما به بالا نگاه می‌کنیم و متوجه می‌شویم که ماشین‌ها به‌جای ما در حال کنترل هستند. این دسته از خطرات همچنین سخت‌ترین خطرات برای محافظت در برابر آنهاست زیرا به نحوه عملکرد مردم، زیرساخت‌ها و نهادها در آینده بستگی دارد.

AGI در پنج سال آینده؟

هیچ‌کس نمی‌داند که آیا ماشین‌های تفکر واقعاً تنها چند سال با ما فاصله دارند یا خیر، اما بسیاری از رهبران فناوری به اندازه کافی مطمئن هستند که این را بگویند. بخشی از مشکل در پیش‌بینی ظهور AGI این است که ما هنوز فقط در حال حدس زدن هستیم که چگونه هوش مشابه انسان در یک ماشین تجلی خواهد یافت. هر کسی که در سال‌های اخیر از سیستم‌های هوش مصنوعی تولیدی استفاده کرده باشد، بهبودهای واقعی و ملموسی را مشاهده کرده است، اما آیا این مسیر به قابلیت‌های واقعی مشابه انسان منجر می‌شود؟

ما به‌تازگی با تولسی دُشی، مدیر مدیریت محصول برای جمنای گوگل، در مورد طیف وسیعی از موضوعات هوش مصنوعی، از جمله AGI صحبت کردیم. دُشی گفت: "افراد مختلف تعاریف متفاوتی از AGI دارند و بنابراین بسته به اینکه با چه کسی صحبت می‌کنید، اینکه چقدر به AGI نزدیک یا دور هستیم، یک گفتگوی متفاوت است. آنچه من می‌گویم این است که LLMها، جمنای و آموزش مدل‌های هوشمندتر و هوشمندتر در مسیر مدل‌هایی هستند که به شدت هوشمند خواهند بود. و این به خودی خود ارزش زیادی دارد."

این مقاله کلام نهایی در مورد ایمنی AGI نیست—دیپ‌مایند اشاره می‌کند که این تنها یک "نقطه شروع برای گفتگوهای حیاتی" است. اگر تیم درست بگوید و AGI در پنج سال کوتاه دنیا را متحول کند، این گفتگوها باید به زودی انجام شوند. در غیر این صورت، خوب، بسیاری از مردم به نوعی احمق به نظر خواهند رسید.

منبع:Ars Technica
در حال بارگذاری نظرات...
نظر شما:
0/800