نگرانی‌ها درباره اطلاعات نادرست ناشی از استفاده کاربران X از Grok به عنوان یک چک‌کننده واقعیت

نگرانی‌ها درباره اطلاعات نادرست ناشی از استفاده کاربران X از Grok به عنوان یک چک‌کننده واقعیت

تاریخ انتشار:

نگرانی‌ها درباره اطلاعات نادرست ناشی از استفاده کاربران X از Grok به عنوان یک چک‌کننده واقعیت

استفاده کاربران از Grok به عنوان چک‌کننده واقعیت

برخی از کاربران در شبکه اجتماعی X که متعلق به ایلان ماسک است، به ربات هوش مصنوعی Grok برای چک کردن واقعیت‌ها روی آورده‌اند که این موضوع نگرانی‌هایی را در میان چک‌کنندگان واقعیت انسانی به وجود آورده است، زیرا این ممکن است به گسترش اطلاعات نادرست منجر شود.

عملکرد Grok و نگرانی‌های مربوط به آن

اوایل این ماه، X به کاربران این امکان را داد که از Grok، ربات هوش مصنوعی xAI، سوالاتی بپرسند. این اقدام مشابه با Perplexity بود که یک حساب کاربری خودکار در X راه‌اندازی کرده و تجربه مشابهی را ارائه می‌دهد.

به محض اینکه xAI حساب کاربری خودکار Grok را در X ایجاد کرد، کاربران شروع به آزمایش و پرسیدن سوالات کردند. برخی از افراد در بازارهایی از جمله هند شروع به درخواست از Grok برای چک کردن واقعیت نظرات و سوالاتی کردند که به باورهای سیاسی خاصی اشاره داشتند.

نگرانی چک‌کنندگان واقعیت

چک‌کنندگان واقعیت درباره استفاده از Grok - یا هر دستیار هوش مصنوعی دیگری از این نوع - نگران هستند زیرا ربات‌ها می‌توانند پاسخ‌های خود را به گونه‌ای تنظیم کنند که قانع‌کننده به نظر برسند، حتی اگر از نظر واقعی صحیح نباشند. در گذشته، مواردی از انتشار اخبار جعلی و اطلاعات نادرست با Grok مشاهده شده است.

در ماه اوت سال گذشته، پنج دبیر ایالت از ماسک خواستند که تغییرات اساسی را در Grok اعمال کند، پس از اینکه اطلاعات گمراه‌کننده‌ای که توسط این دستیار تولید شده بود، در شبکه‌های اجتماعی قبل از انتخابات ایالات متحده منتشر شد.

چالش‌های دیگر ربات‌های چت

ربات‌های چت دیگر، از جمله ChatGPT شرکت OpenAI و Gemini گوگل، نیز به تولید اطلاعات نادرست در مورد انتخابات سال گذشته متهم شده بودند. به طور جداگانه، محققان اطلاعات نادرست در سال 2023 دریافتند که ربات‌های چت هوش مصنوعی از جمله ChatGPT می‌توانند به راحتی برای تولید متنی قانع‌کننده با روایت‌های گمراه‌کننده استفاده شوند.

خطرات ناشی از پاسخ‌های Grok

انجی هولان، مدیر شبکه بین‌المللی چک‌کننده واقعیت (IFCN) در Poynter، به TechCrunch گفت: "دستیاران هوش مصنوعی، مانند Grok، در استفاده از زبان طبیعی بسیار خوب هستند و پاسخی می‌دهند که به نظر می‌رسد یک انسان آن را بیان کرده است. و به این ترتیب، محصولات هوش مصنوعی این ادعا را در مورد طبیعی بودن و پاسخ‌های معتبر ارائه می‌دهند، حتی زمانی که ممکن است بسیار نادرست باشند. این خطرناک است."

چک‌کنندگان انسانی در مقابل ربات‌ها

بر خلاف دستیاران هوش مصنوعی، چک‌کنندگان واقعیت انسانی از منابع متعدد و معتبر برای تأیید اطلاعات استفاده می‌کنند. آن‌ها همچنین به طور کامل مسئولیت یافته‌های خود را بر عهده می‌گیرند و نام و سازمان‌های خود را به آن‌ها متصل می‌کنند تا اعتبار آن‌ها تأیید شود.

پراتیک سینها، یکی از بنیان‌گذاران وب‌سایت غیرانتفاعی چک‌کننده واقعیت Alt News در هند، گفت که اگرچه Grok در حال حاضر به نظر می‌رسد پاسخ‌های قانع‌کننده‌ای داشته باشد، اما تنها به اندازه داده‌هایی که به آن ارائه می‌شود، خوب است.

عدم شفافیت و خطرات آن

او افزود: "چه کسی قرار است تعیین کند که چه داده‌ای به آن ارائه می‌شود و اینجاست که دخالت دولت و غیره به تصویر می‌آید." "هیچ شفافیتی وجود ندارد. هر چیزی که فاقد شفافیت باشد، آسیب خواهد زد زیرا هر چیزی که فاقد شفافیت باشد، می‌تواند به هر شکلی تغییر شکل دهد."

امکان سوءاستفاده از Grok

در یکی از پاسخ‌های منتشر شده در اوایل این هفته، حساب Grok در X اذعان کرد که "ممکن است سوءاستفاده شود - برای انتشار اطلاعات نادرست و نقض حریم خصوصی." با این حال، حساب خودکار هیچ گونه هشدار یا توضیحی به کاربران هنگام دریافت پاسخ‌های خود نشان نمی‌دهد، که باعث می‌شود اگر به عنوان مثال، پاسخ را توهم کرده باشد، کاربران دچار اطلاعات نادرست شوند.

چالش‌های مربوط به کیفیت اطلاعات

آنووشکا جین، یکی از پژوهشگران در مجموعه تحقیقاتی چند رشته‌ای Digital Futures Lab در گوا، به TechCrunch گفت: "ممکن است اطلاعاتی را برای ارائه یک پاسخ جعل کند." همچنین سوالاتی درباره اینکه Grok چقدر از پست‌های X به عنوان داده‌های آموزشی استفاده می‌کند و چه تدابیر کنترل کیفیتی برای چک کردن واقعیت این پست‌ها به کار می‌برد، وجود دارد. تابستان گذشته، تغییراتی ایجاد شد که به نظر می‌رسید به Grok اجازه می‌دهد به طور پیش‌فرض داده‌های کاربران X را مصرف کند.

دسترسی عمومی به اطلاعات

یکی دیگر از زمینه‌های نگران‌کننده در مورد دستیاران هوش مصنوعی مانند Grok که از طریق پلتفرم‌های رسانه‌های اجتماعی قابل دسترسی هستند، ارائه اطلاعات به صورت عمومی است - بر خلاف ChatGPT یا سایر ربات‌های چت که به صورت خصوصی استفاده می‌شوند.

حتی اگر یک کاربر به خوبی آگاه باشد که اطلاعاتی که از دستیار دریافت می‌کند ممکن است گمراه‌کننده یا کاملاً صحیح نباشد، دیگران در پلتفرم ممکن است هنوز به آن اعتقاد داشته باشند. این می‌تواند آسیب‌های اجتماعی جدی ایجاد کند. مواردی از این دست قبلاً در هند مشاهده شده است، زمانی که اطلاعات نادرست در واتساپ منجر به اعدام‌های جمعی شد. با این حال، این حوادث شدید قبل از ورود GenAI رخ داد که تولید محتوای مصنوعی را حتی آسان‌تر و واقعی‌تر کرده است.

پیامدهای نادرست اطلاعات

هولان از IFCN گفت: "اگر شما تعداد زیادی از این پاسخ‌های Grok را ببینید، خواهید گفت، خوب، بیشتر آن‌ها درست هستند، و ممکن است این‌گونه باشد، اما برخی از آن‌ها نادرست خواهند بود. و چند تا؟ این یک بخش کوچک نیست. برخی از مطالعات تحقیقاتی نشان داده‌اند که مدل‌های هوش مصنوعی در معرض نرخ خطای 20 درصد هستند... و زمانی که اشتباه می‌کند، می‌تواند واقعاً اشتباه کند و پیامدهای واقعی داشته باشد."

آینده چک‌کنندگان واقعیت

در حالی که شرکت‌های هوش مصنوعی از جمله xAI در حال بهبود مدل‌های هوش مصنوعی خود هستند تا آن‌ها را بیشتر شبیه انسان‌ها ارتباط برقرار کنند، هنوز هم نمی‌توانند و نمی‌توانند جایگزین انسان‌ها شوند.

در چند ماه گذشته، شرکت‌های فناوری در حال بررسی راه‌هایی برای کاهش وابستگی به چک‌کنندگان واقعیت انسانی هستند. پلتفرم‌هایی از جمله X و متا به تدریج مفهوم جدید چک کردن واقعیت crowdsourced را از طریق آنچه که به عنوان Community Notes شناخته می‌شود، پذیرفته‌اند.

طبیعتاً، چنین تغییراتی نیز نگرانی‌هایی را برای چک‌کنندگان واقعیت به وجود می‌آورد.

سینها از Alt News با خوش‌بینی بر این باور است که مردم یاد خواهند گرفت که بین ماشین‌ها و چک‌کنندگان انسانی تمایز قائل شوند و دقت انسان‌ها را بیشتر ارزش خواهند نهاد.

هولان از IFCN گفت: "ما در نهایت شاهد بازگشت نوسان به سمت چک کردن واقعیت بیشتر خواهیم بود." با این حال، او اشاره کرد که در این بین، چک‌کنندگان واقعیت احتمالاً کار بیشتری برای انجام خواهند داشت زیرا اطلاعات تولید شده توسط هوش مصنوعی به سرعت در حال انتشار است.

او گفت: "بسیاری از این مسئله بستگی به این دارد که آیا واقعاً به آنچه که حقیقت دارد اهمیت می‌دهید یا خیر؟ آیا فقط به دنبال ظاهری از چیزی هستید که به نظر می‌رسد و احساس می‌شود درست است بدون اینکه واقعاً درست باشد؟ زیرا این همان چیزی است که دستیاران هوش مصنوعی به شما خواهند داد."

 

منبع:The Verge
در حال بارگذاری نظرات...
نظر شما:
0/800