نوام براون، سرپرست تحقیقات هوش مصنوعی در OpenAI، معتقد است که مدل‌های خاصی از «استدلال» هوش مصنوعی می‌توانستند دهه‌ها پیش به وجود بیایند

نوام براون، سرپرست تحقیقات هوش مصنوعی در OpenAI، معتقد است که مدل‌های خاصی از «استدلال» هوش مصنوعی می‌توانستند دهه‌ها پیش به وجود بیایند

تاریخ انتشار:

نوام براون، سرپرست تحقیقات هوش مصنوعی در OpenAI، معتقد است که مدل‌های خاصی از «استدلال» هوش مصنوعی می‌توانستند دهه‌ها پیش به وجود بیایند

مقدمه

نوام براون، که رهبری تحقیقات استدلال هوش مصنوعی را در OpenAI بر عهده دارد، معتقد است که برخی از مدل‌های هوش مصنوعی «استدلال» می‌توانستند ۲۰ سال زودتر به وجود بیایند اگر محققان «رویکرد درست» و الگوریتم‌های مناسب را می‌شناختند.

چرا این تحقیقات نادیده گرفته شد؟

براون در یک پنل در کنفرانس GTC انویدیا در سن خوزه در روز چهارشنبه گفت: «دلایل مختلفی وجود داشت که چرا این مسیر تحقیقاتی نادیده گرفته شد. من در طول تحقیقاتم متوجه شدم که، خوب، چیزی کم است. انسان‌ها زمان زیادی را صرف فکر کردن قبل از عمل در شرایط دشوار می‌کنند. شاید این در هوش مصنوعی بسیار مفید باشد.»

کارهای براون در زمینه هوش مصنوعی بازی

براون به کار خود در زمینه هوش مصنوعی بازی در دانشگاه کارنگی ملون اشاره کرد، از جمله پروژه Pluribus که حرفه‌ای‌های انسانی را در پوکر شکست داد. هوش مصنوعی که براون در ایجاد آن کمک کرده بود، در زمان خود منحصر به فرد بود زیرا «استدلال» را در حل مسائل به کار می‌برد و به جای استفاده از رویکردهای سخت‌افزاری، به حل مسائل می‌پرداخت.

مدل o1 و استدلال در هوش مصنوعی

براون یکی از معماران مدل o1 است، یک مدل هوش مصنوعی از OpenAI که از تکنیکی به نام استنتاج در زمان تست استفاده می‌کند تا قبل از پاسخ به پرسش‌ها «فکر» کند. استنتاج در زمان تست به معنای استفاده از محاسبات اضافی برای اجرای مدل‌ها به منظور ایجاد نوعی «استدلال» است. به طور کلی، مدل‌های به اصطلاح استدلالی از دقت و قابلیت اطمینان بیشتری نسبت به مدل‌های سنتی برخوردارند، به ویژه در حوزه‌هایی مانند ریاضیات و علوم.

چالش‌های تحقیقاتی در دانشگاه‌ها

در طول پنل، از براون پرسیده شد که آیا دانشگاه‌ها می‌توانند امیدی به انجام آزمایش‌هایی در مقیاس آزمایشگاه‌های هوش مصنوعی مانند OpenAI داشته باشند، با توجه به کمبود منابع محاسباتی در مؤسسات. او اعتراف کرد که در سال‌های اخیر با توجه به اینکه مدل‌ها نیاز به محاسبات بیشتری دارند، کار سخت‌تر شده است، اما گفت که دانشگاهیان می‌توانند با بررسی حوزه‌هایی که نیاز به محاسبات کمتری دارند، مانند طراحی معماری مدل، تأثیرگذار باشند.

فرصت‌های همکاری بین دانشگاه‌ها و آزمایشگاه‌های پیشرفته

براون گفت: «[ت]ا فرصت‌هایی برای همکاری بین آزمایشگاه‌های پیشرفته و دانشگاه‌ها وجود دارد. قطعاً، آزمایشگاه‌های پیشرفته به مقالات دانشگاهی نگاه می‌کنند و به دقت فکر می‌کنند که آیا این یک استدلال قانع‌کننده است که اگر این مقیاس‌پذیرتر شود، بسیار مؤثر خواهد بود. اگر استدلال قانع‌کننده‌ای از مقاله وجود داشته باشد، می‌دانید که ما در این آزمایشگاه‌ها به بررسی آن خواهیم پرداخت.»

کاهش بودجه‌های علمی و تأثیر آن بر تحقیقات هوش مصنوعی

اظهارات براون در زمانی مطرح می‌شود که دولت ترامپ به شدت در حال کاهش بودجه‌های علمی است. کارشناسان هوش مصنوعی از جمله برنده جایزه نوبل، جفری هینتون، این کاهش‌ها را مورد انتقاد قرار داده‌اند و گفته‌اند که این امر ممکن است تلاش‌های تحقیقاتی در زمینه هوش مصنوعی را هم در داخل و هم در خارج از کشور تهدید کند.

اهمیت ارزیابی در هوش مصنوعی

براون به ارزیابی‌های هوش مصنوعی به عنوان حوزه‌ای اشاره کرد که دانشگاه‌ها می‌توانند تأثیر قابل توجهی داشته باشند. او گفت: «وضعیت ارزیابی‌ها در هوش مصنوعی واقعاً بد است و این کار نیاز به محاسبات زیادی ندارد.»

نتیجه‌گیری

همانطور که قبلاً نوشته‌ایم، ارزیابی‌های محبوب هوش مصنوعی امروزه معمولاً دانش تخصصی را آزمایش می‌کنند و نمراتی می‌دهند که به طور ضعیفی با مهارت در وظایفی که بیشتر مردم به آن اهمیت می‌دهند، همبستگی دارند. این امر منجر به سردرگمی گسترده‌ای در مورد قابلیت‌ها و بهبودهای مدل‌ها شده است.

 

Binary code and OpenAI logo

 

منبع:The Verge
در حال بارگذاری نظرات...
نظر شما:
0/800