دسترسی به مدل‌های آینده هوش مصنوعی در API اوپن‌ای‌آی ممکن است نیاز به شناسایی معتبر داشته باشد

دسترسی به مدل‌های آینده هوش مصنوعی در API اوپن‌ای‌آی ممکن است نیاز به شناسایی معتبر داشته باشد

تاریخ انتشار:

دسترسی به مدل‌های آینده هوش مصنوعی در API اوپن‌ای‌آی ممکن است نیاز به شناسایی معتبر داشته باشد

فرآیند تأیید هویت در اوپن‌ای‌آی

اوپن‌ای‌آی به زودی ممکن است از سازمان‌ها بخواهد که برای دسترسی به برخی از مدل‌های آینده هوش مصنوعی، فرآیند تأیید هویت را تکمیل کنند. این اطلاعات در یک صفحه پشتیبانی که هفته گذشته در وب‌سایت این شرکت منتشر شد، آمده است.

تأیید سازمان معتبر

فرآیند تأیید هویت که به آن "سازمان معتبر" گفته می‌شود، "یک روش جدید برای توسعه‌دهندگان است تا به مدل‌ها و قابلیت‌های پیشرفته‌ترین در پلتفرم اوپن‌ای‌آی دسترسی پیدا کنند." این صفحه می‌افزاید که تأیید هویت نیاز به یک شناسه دولتی از یکی از کشورهایی دارد که API اوپن‌ای‌آی از آن‌ها پشتیبانی می‌کند. یک شناسه تنها می‌تواند هر 90 روز یک سازمان را تأیید کند و نه همه سازمان‌ها واجد شرایط تأیید خواهند بود.

مسئولیت اوپن‌ای‌آی در استفاده ایمن از هوش مصنوعی

در این صفحه آمده است: "در اوپن‌ای‌آی، ما مسئولیت خود را جدی می‌گیریم تا اطمینان حاصل کنیم که هوش مصنوعی هم به طور گسترده قابل دسترسی است و هم به طور ایمن استفاده می‌شود. متأسفانه، اقلیت کوچکی از توسعه‌دهندگان به عمد از API های اوپن‌ای‌آی در نقض سیاست‌های استفاده ما بهره‌برداری می‌کنند. ما فرآیند تأیید هویت را به منظور کاهش استفاده ناامن از هوش مصنوعی اضافه می‌کنیم و در عین حال به ارائه مدل‌های پیشرفته به جامعه توسعه‌دهندگان گسترده‌تر ادامه خواهیم داد."

وضعیت سازمان معتبر

اوپن‌ای‌آی وضعیت جدید "سازمان معتبر" را به عنوان یک روش جدید برای توسعه‌دهندگان برای باز کردن دسترسی به پیشرفته‌ترین مدل‌ها و قابلیت‌ها در پلتفرم خود منتشر کرده و به دنبال آماده‌سازی برای "انتشار مدل هیجان‌انگیز بعدی" است. تأیید هویت چند دقیقه طول می‌کشد و نیاز به یک شناسه معتبر دارد.

تقویت امنیت محصولات اوپن‌ای‌آی

این فرآیند تأیید هویت ممکن است به منظور تقویت امنیت محصولات اوپن‌ای‌آی در حالی که آن‌ها به تدریج پیچیده‌تر و توانمندتر می‌شوند، طراحی شده باشد. این شرکت چندین گزارش در مورد تلاش‌های خود برای شناسایی و کاهش استفاده‌های مخرب از مدل‌های خود منتشر کرده است، از جمله توسط گروه‌هایی که به ادعای آن‌ها در کره شمالی مستقر هستند.

جلوگیری از سرقت داده‌ها

این فرآیند همچنین ممکن است به منظور جلوگیری از سرقت داده‌ها باشد. طبق گزارشی از بلومبرگ در اوایل امسال، اوپن‌ای‌آی در حال تحقیق بود که آیا گروهی مرتبط با DeepSeek، آزمایشگاه هوش مصنوعی مستقر در چین، در اواخر سال 2024 مقادیر زیادی از داده‌ها را از طریق API خود به سرقت برده است یا خیر، که ممکن است برای آموزش مدل‌ها استفاده شده باشد - این یک نقض از شرایط اوپن‌ای‌آی است.

مسدود کردن دسترسی به خدمات در چین

اوپن‌ای‌آی در تابستان گذشته دسترسی به خدمات خود در چین را مسدود کرد.

 

OpenAI CEO Sam Altman speaks during the Microsoft Build conference at the Seattle Convention Center Summit Building in Seattle, Washington on May 21, 2024.

 

منبع:Techcrunch
در حال بارگذاری نظرات...
نظر شما:
0/800