
نگرانیها درباره اطلاعات نادرست ناشی از استفاده کاربران X از Grok به عنوان یک چککننده واقعیت
تاریخ انتشار:
استفاده کاربران از Grok به عنوان چککننده واقعیت
برخی از کاربران در شبکه اجتماعی X که متعلق به ایلان ماسک است، به ربات هوش مصنوعی Grok برای چک کردن واقعیتها روی آوردهاند که این موضوع نگرانیهایی را در میان چککنندگان واقعیت انسانی به وجود آورده است، زیرا این ممکن است به گسترش اطلاعات نادرست منجر شود.
عملکرد Grok و نگرانیهای مربوط به آن
اوایل این ماه، X به کاربران این امکان را داد که از Grok، ربات هوش مصنوعی xAI، سوالاتی بپرسند. این اقدام مشابه با Perplexity بود که یک حساب کاربری خودکار در X راهاندازی کرده و تجربه مشابهی را ارائه میدهد.
به محض اینکه xAI حساب کاربری خودکار Grok را در X ایجاد کرد، کاربران شروع به آزمایش و پرسیدن سوالات کردند. برخی از افراد در بازارهایی از جمله هند شروع به درخواست از Grok برای چک کردن واقعیت نظرات و سوالاتی کردند که به باورهای سیاسی خاصی اشاره داشتند.
نگرانی چککنندگان واقعیت
چککنندگان واقعیت درباره استفاده از Grok - یا هر دستیار هوش مصنوعی دیگری از این نوع - نگران هستند زیرا رباتها میتوانند پاسخهای خود را به گونهای تنظیم کنند که قانعکننده به نظر برسند، حتی اگر از نظر واقعی صحیح نباشند. در گذشته، مواردی از انتشار اخبار جعلی و اطلاعات نادرست با Grok مشاهده شده است.

در ماه اوت سال گذشته، پنج دبیر ایالت از ماسک خواستند که تغییرات اساسی را در Grok اعمال کند، پس از اینکه اطلاعات گمراهکنندهای که توسط این دستیار تولید شده بود، در شبکههای اجتماعی قبل از انتخابات ایالات متحده منتشر شد.
چالشهای دیگر رباتهای چت
رباتهای چت دیگر، از جمله ChatGPT شرکت OpenAI و Gemini گوگل، نیز به تولید اطلاعات نادرست در مورد انتخابات سال گذشته متهم شده بودند. به طور جداگانه، محققان اطلاعات نادرست در سال 2023 دریافتند که رباتهای چت هوش مصنوعی از جمله ChatGPT میتوانند به راحتی برای تولید متنی قانعکننده با روایتهای گمراهکننده استفاده شوند.
خطرات ناشی از پاسخهای Grok
انجی هولان، مدیر شبکه بینالمللی چککننده واقعیت (IFCN) در Poynter، به TechCrunch گفت: "دستیاران هوش مصنوعی، مانند Grok، در استفاده از زبان طبیعی بسیار خوب هستند و پاسخی میدهند که به نظر میرسد یک انسان آن را بیان کرده است. و به این ترتیب، محصولات هوش مصنوعی این ادعا را در مورد طبیعی بودن و پاسخهای معتبر ارائه میدهند، حتی زمانی که ممکن است بسیار نادرست باشند. این خطرناک است."
چککنندگان انسانی در مقابل رباتها
بر خلاف دستیاران هوش مصنوعی، چککنندگان واقعیت انسانی از منابع متعدد و معتبر برای تأیید اطلاعات استفاده میکنند. آنها همچنین به طور کامل مسئولیت یافتههای خود را بر عهده میگیرند و نام و سازمانهای خود را به آنها متصل میکنند تا اعتبار آنها تأیید شود.
پراتیک سینها، یکی از بنیانگذاران وبسایت غیرانتفاعی چککننده واقعیت Alt News در هند، گفت که اگرچه Grok در حال حاضر به نظر میرسد پاسخهای قانعکنندهای داشته باشد، اما تنها به اندازه دادههایی که به آن ارائه میشود، خوب است.
عدم شفافیت و خطرات آن
او افزود: "چه کسی قرار است تعیین کند که چه دادهای به آن ارائه میشود و اینجاست که دخالت دولت و غیره به تصویر میآید." "هیچ شفافیتی وجود ندارد. هر چیزی که فاقد شفافیت باشد، آسیب خواهد زد زیرا هر چیزی که فاقد شفافیت باشد، میتواند به هر شکلی تغییر شکل دهد."

امکان سوءاستفاده از Grok
در یکی از پاسخهای منتشر شده در اوایل این هفته، حساب Grok در X اذعان کرد که "ممکن است سوءاستفاده شود - برای انتشار اطلاعات نادرست و نقض حریم خصوصی." با این حال، حساب خودکار هیچ گونه هشدار یا توضیحی به کاربران هنگام دریافت پاسخهای خود نشان نمیدهد، که باعث میشود اگر به عنوان مثال، پاسخ را توهم کرده باشد، کاربران دچار اطلاعات نادرست شوند.
چالشهای مربوط به کیفیت اطلاعات
آنووشکا جین، یکی از پژوهشگران در مجموعه تحقیقاتی چند رشتهای Digital Futures Lab در گوا، به TechCrunch گفت: "ممکن است اطلاعاتی را برای ارائه یک پاسخ جعل کند." همچنین سوالاتی درباره اینکه Grok چقدر از پستهای X به عنوان دادههای آموزشی استفاده میکند و چه تدابیر کنترل کیفیتی برای چک کردن واقعیت این پستها به کار میبرد، وجود دارد. تابستان گذشته، تغییراتی ایجاد شد که به نظر میرسید به Grok اجازه میدهد به طور پیشفرض دادههای کاربران X را مصرف کند.
دسترسی عمومی به اطلاعات
یکی دیگر از زمینههای نگرانکننده در مورد دستیاران هوش مصنوعی مانند Grok که از طریق پلتفرمهای رسانههای اجتماعی قابل دسترسی هستند، ارائه اطلاعات به صورت عمومی است - بر خلاف ChatGPT یا سایر رباتهای چت که به صورت خصوصی استفاده میشوند.
حتی اگر یک کاربر به خوبی آگاه باشد که اطلاعاتی که از دستیار دریافت میکند ممکن است گمراهکننده یا کاملاً صحیح نباشد، دیگران در پلتفرم ممکن است هنوز به آن اعتقاد داشته باشند. این میتواند آسیبهای اجتماعی جدی ایجاد کند. مواردی از این دست قبلاً در هند مشاهده شده است، زمانی که اطلاعات نادرست در واتساپ منجر به اعدامهای جمعی شد. با این حال، این حوادث شدید قبل از ورود GenAI رخ داد که تولید محتوای مصنوعی را حتی آسانتر و واقعیتر کرده است.
پیامدهای نادرست اطلاعات
هولان از IFCN گفت: "اگر شما تعداد زیادی از این پاسخهای Grok را ببینید، خواهید گفت، خوب، بیشتر آنها درست هستند، و ممکن است اینگونه باشد، اما برخی از آنها نادرست خواهند بود. و چند تا؟ این یک بخش کوچک نیست. برخی از مطالعات تحقیقاتی نشان دادهاند که مدلهای هوش مصنوعی در معرض نرخ خطای 20 درصد هستند... و زمانی که اشتباه میکند، میتواند واقعاً اشتباه کند و پیامدهای واقعی داشته باشد."
آینده چککنندگان واقعیت
در حالی که شرکتهای هوش مصنوعی از جمله xAI در حال بهبود مدلهای هوش مصنوعی خود هستند تا آنها را بیشتر شبیه انسانها ارتباط برقرار کنند، هنوز هم نمیتوانند و نمیتوانند جایگزین انسانها شوند.
در چند ماه گذشته، شرکتهای فناوری در حال بررسی راههایی برای کاهش وابستگی به چککنندگان واقعیت انسانی هستند. پلتفرمهایی از جمله X و متا به تدریج مفهوم جدید چک کردن واقعیت crowdsourced را از طریق آنچه که به عنوان Community Notes شناخته میشود، پذیرفتهاند.
طبیعتاً، چنین تغییراتی نیز نگرانیهایی را برای چککنندگان واقعیت به وجود میآورد.
سینها از Alt News با خوشبینی بر این باور است که مردم یاد خواهند گرفت که بین ماشینها و چککنندگان انسانی تمایز قائل شوند و دقت انسانها را بیشتر ارزش خواهند نهاد.
هولان از IFCN گفت: "ما در نهایت شاهد بازگشت نوسان به سمت چک کردن واقعیت بیشتر خواهیم بود." با این حال، او اشاره کرد که در این بین، چککنندگان واقعیت احتمالاً کار بیشتری برای انجام خواهند داشت زیرا اطلاعات تولید شده توسط هوش مصنوعی به سرعت در حال انتشار است.
او گفت: "بسیاری از این مسئله بستگی به این دارد که آیا واقعاً به آنچه که حقیقت دارد اهمیت میدهید یا خیر؟ آیا فقط به دنبال ظاهری از چیزی هستید که به نظر میرسد و احساس میشود درست است بدون اینکه واقعاً درست باشد؟ زیرا این همان چیزی است که دستیاران هوش مصنوعی به شما خواهند داد."