
نوام براون، سرپرست تحقیقات هوش مصنوعی در OpenAI، معتقد است که مدلهای خاصی از «استدلال» هوش مصنوعی میتوانستند دههها پیش به وجود بیایند
تاریخ انتشار:
مقدمه
نوام براون، که رهبری تحقیقات استدلال هوش مصنوعی را در OpenAI بر عهده دارد، معتقد است که برخی از مدلهای هوش مصنوعی «استدلال» میتوانستند ۲۰ سال زودتر به وجود بیایند اگر محققان «رویکرد درست» و الگوریتمهای مناسب را میشناختند.
چرا این تحقیقات نادیده گرفته شد؟
براون در یک پنل در کنفرانس GTC انویدیا در سن خوزه در روز چهارشنبه گفت: «دلایل مختلفی وجود داشت که چرا این مسیر تحقیقاتی نادیده گرفته شد. من در طول تحقیقاتم متوجه شدم که، خوب، چیزی کم است. انسانها زمان زیادی را صرف فکر کردن قبل از عمل در شرایط دشوار میکنند. شاید این در هوش مصنوعی بسیار مفید باشد.»
کارهای براون در زمینه هوش مصنوعی بازی
براون به کار خود در زمینه هوش مصنوعی بازی در دانشگاه کارنگی ملون اشاره کرد، از جمله پروژه Pluribus که حرفهایهای انسانی را در پوکر شکست داد. هوش مصنوعی که براون در ایجاد آن کمک کرده بود، در زمان خود منحصر به فرد بود زیرا «استدلال» را در حل مسائل به کار میبرد و به جای استفاده از رویکردهای سختافزاری، به حل مسائل میپرداخت.
مدل o1 و استدلال در هوش مصنوعی
براون یکی از معماران مدل o1 است، یک مدل هوش مصنوعی از OpenAI که از تکنیکی به نام استنتاج در زمان تست استفاده میکند تا قبل از پاسخ به پرسشها «فکر» کند. استنتاج در زمان تست به معنای استفاده از محاسبات اضافی برای اجرای مدلها به منظور ایجاد نوعی «استدلال» است. به طور کلی، مدلهای به اصطلاح استدلالی از دقت و قابلیت اطمینان بیشتری نسبت به مدلهای سنتی برخوردارند، به ویژه در حوزههایی مانند ریاضیات و علوم.
چالشهای تحقیقاتی در دانشگاهها
در طول پنل، از براون پرسیده شد که آیا دانشگاهها میتوانند امیدی به انجام آزمایشهایی در مقیاس آزمایشگاههای هوش مصنوعی مانند OpenAI داشته باشند، با توجه به کمبود منابع محاسباتی در مؤسسات. او اعتراف کرد که در سالهای اخیر با توجه به اینکه مدلها نیاز به محاسبات بیشتری دارند، کار سختتر شده است، اما گفت که دانشگاهیان میتوانند با بررسی حوزههایی که نیاز به محاسبات کمتری دارند، مانند طراحی معماری مدل، تأثیرگذار باشند.
فرصتهای همکاری بین دانشگاهها و آزمایشگاههای پیشرفته
براون گفت: «[ت]ا فرصتهایی برای همکاری بین آزمایشگاههای پیشرفته و دانشگاهها وجود دارد. قطعاً، آزمایشگاههای پیشرفته به مقالات دانشگاهی نگاه میکنند و به دقت فکر میکنند که آیا این یک استدلال قانعکننده است که اگر این مقیاسپذیرتر شود، بسیار مؤثر خواهد بود. اگر استدلال قانعکنندهای از مقاله وجود داشته باشد، میدانید که ما در این آزمایشگاهها به بررسی آن خواهیم پرداخت.»
کاهش بودجههای علمی و تأثیر آن بر تحقیقات هوش مصنوعی
اظهارات براون در زمانی مطرح میشود که دولت ترامپ به شدت در حال کاهش بودجههای علمی است. کارشناسان هوش مصنوعی از جمله برنده جایزه نوبل، جفری هینتون، این کاهشها را مورد انتقاد قرار دادهاند و گفتهاند که این امر ممکن است تلاشهای تحقیقاتی در زمینه هوش مصنوعی را هم در داخل و هم در خارج از کشور تهدید کند.
اهمیت ارزیابی در هوش مصنوعی
براون به ارزیابیهای هوش مصنوعی به عنوان حوزهای اشاره کرد که دانشگاهها میتوانند تأثیر قابل توجهی داشته باشند. او گفت: «وضعیت ارزیابیها در هوش مصنوعی واقعاً بد است و این کار نیاز به محاسبات زیادی ندارد.»
نتیجهگیری
همانطور که قبلاً نوشتهایم، ارزیابیهای محبوب هوش مصنوعی امروزه معمولاً دانش تخصصی را آزمایش میکنند و نمراتی میدهند که به طور ضعیفی با مهارت در وظایفی که بیشتر مردم به آن اهمیت میدهند، همبستگی دارند. این امر منجر به سردرگمی گستردهای در مورد قابلیتها و بهبودهای مدلها شده است.
