قاضی استدلال «شخص کاذب» OpenAI را در پرونده حق نشر نیویورک تایمز زیر سوال می‌برد

قاضی استدلال «شخص کاذب» OpenAI را در پرونده حق نشر نیویورک تایمز زیر سوال می‌برد

تاریخ انتشار:

قاضی استدلال «شخص کاذب» OpenAI را در پرونده حق نشر نیویورک تایمز زیر سوال می‌برد

پرونده نیویورک تایمز علیه OpenAI

پس از اینکه نیویورک تایمز در دسامبر 2023 از OpenAI به دلیل نقض حق نشر به خاطر تولید محتوای مشابه مقالات خبری شکایت کرد، سازنده ChatGPT تلاش کرد و در این زمینه ناموفق بود تا استدلال کند که این ادعاها به دلیل گذشت زمان قابل پیگیری نیستند.

استدلال OpenAI

بر اساس ادعای OpenAI، نیویورک تایمز باید می‌دانست که ChatGPT بر اساس مقالات آن آموزش دیده و باید در سال 2020 شکایت خود را مطرح می‌کرد، بخشی از این ادعا به گزارش‌های خود روزنامه مربوط می‌شود. OpenAI به یک مقاله واحد از نوامبر 2020 اشاره کرد که در آن نیویورک تایمز گزارش داده بود که OpenAI در حال تحلیل یک تریلیون کلمه در اینترنت است. اما روز جمعه، قاضی ناحیه ایالات متحده، سیدنی استاین، با این موضوع مخالفت کرد و درخواست OpenAI برای رد ادعاهای حق نشر نیویورک تایمز را به دلیل وابستگی به یک گزارش از یک خبرنگار نیویورک تایمز رد کرد.

بار اثبات بر دوش OpenAI

در نظر خود، استاین تأیید کرد که بار اثبات بر دوش OpenAI است که نشان دهد نیویورک تایمز می‌دانست که ChatGPT ممکن است حق نشر آن را دو سال قبل از انتشارش در نوامبر 2022 نقض کند. و تا کنون، OpenAI نتوانسته است این بار را برآورده کند.

استاین توضیح داد: "اینکه یکی از خبرنگاران نیویورک تایمز به آموزش AI توسط OpenAI اشاره کرده، به هیچ وجه نشان نمی‌دهد که این روزنامه می‌دانسته که خروجی‌های ChatGPT سال‌ها بعد ممکن است گزارش‌های نیویورک تایمز را تکرار کنند."

استدلال‌های دیگر OpenAI

استدلال دیگر OpenAI این بود که «دانش عمومی» وجود دارد که ChatGPT در سال 2020 بر اساس مقالات نیویورک تایمز آموزش دیده است که به دلایل مشابهی نیز ناکام ماند.

استاین نوشت: "OpenAI نمی‌تواند توضیح دهد که چرا مقالات، حتی اگر وجود آنها در زمان انتشار برای خواهان‌ها شناخته شده باشد، کافی است تا خواهان‌ها را از رفتار نقض‌کننده خاصی که توسط متهمان انجام شده، مطلع کند که مبنای ادعاهای خواهان‌ها را تشکیل می‌دهد،" که "شامل کپی‌برداری خاص از آثار خواهان‌ها توسط OpenAI است."

عدم ارائه شواهد کافی

در واقع، قاضی با نیویورک تایمز موافقت کرد که OpenAI هنوز هیچ مدرکی ارائه نداده است که نشان دهد این روزنامه می‌دانسته که ChatGPT چگونه عمل خواهد کرد تا زمانی که محصول به بازار عرضه شد. بنابراین، او درخواست OpenAI برای رد این ادعاها را به دلیل گذشت زمان رد کرد و استدلال OpenAI را که نیویورک تایمز، «به عنوان یک ناشر پیشرفته»، وظیفه «اقدام سریع پس از آگاه شدن از آنچه که اکنون ادعا می‌کند نقض است» را به عنوان «شخص کاذب» محکوم کرد.

ادعای مشارکت OpenAI در نقض حق نشر

نیویورک تایمز همچنین ادعا می‌کند که OpenAI به نقض حق نشر مقالات خود توسط کاربران ChatGPT کمک می‌کند و OpenAI نیز در تلاش برای رد این ادعا شکست خورد.

نیویورک تایمز ادعا کرد که با آموزش مدل‌های AI بر اساس آثار نیویورک تایمز و آموزش ChatGPT برای ارائه خروجی‌های خاص، بدون رضایت نیویورک تایمز، OpenAI باید مسئول کاربران باشد که ChatGPT را برای تکرار محتوا به منظور دور زدن دیوارهای پرداخت نیویورک تایمز دستکاری می‌کنند.

شرایط لازم برای اثبات ادعا

برای پیروزی در این ادعا، نیویورک تایمز ادعا می‌کند که تنها کافی است نشان دهد که OpenAI دلیلی برای دانستن این موضوع داشته که ChatGPT می‌تواند به این روش استفاده شود، به دلیل گزارش‌های رسانه‌ای و تماس مستقیم نیویورک تایمز با OpenAI. اما OpenAI معتقد است که باید استاندارد بالاتری اعمال شود و نیویورک تایمز باید ثابت کند که OpenAI «دانش واقعی» یا «کوری عمدی» نسبت به نقض ادعایی داشته است.

در این مرحله، استاین گفت که نیویورک تایمز «قابل قبول» ادعای نقض مشارکتی را مطرح کرده است و از طریق بیش از 100 صفحه مثال از خروجی‌های ChatGPT و گزارش‌های رسانه‌ای نشان داده است که ChatGPT می‌تواند بخش‌هایی از مقالات خبری با دیوار پرداخت را تکرار کند که OpenAI «دانش سازنده، اگر نه واقعی، از نقض کاربران نهایی داشته است.» شاید نگران‌کننده‌تر برای OpenAI، قاضی اشاره کرد که «نیویورک تایمز حتی به متهمان اطلاع داده است که ابزارهای آنها آثار دارای حق نشر آن را نقض کرده است»، که از استنتاج اینکه متهمان دانش واقعی از نقض توسط کاربران نهایی داشته‌اند، حمایت می‌کند.

نتیجه‌گیری قاضی

استاین نوشت: "اگر این حقایق به عنوان حقیقت گرفته شوند، این حقایق به یک استنتاج قابل قبول منجر می‌شود که متهمان حداقل دلیلی برای تحقیق و کشف نقض کاربران نهایی داشته‌اند."

به گفته استاین، این واقعیت که OpenAI یک «روابط مستمر» با کاربران خود حفظ می‌کند و خروجی‌هایی را ارائه می‌دهد که به درخواست‌های کاربران پاسخ می‌دهد، همچنین از ادعاهای نقض مشارکتی حمایت می‌کند، با وجود استدلال OpenAI که «استفاده‌های غیرنقض‌کننده قابل توجه» ChatGPT توجیه‌کننده است.

OpenAI برخی ادعاها را رد کرد

برای OpenAI، حکم استاین احتمالاً ناامیدکننده است، اگرچه استاین برخی از ادعاهای نیویورک تایمز را رد کرد.

احتمالاً برای ناشران خبری ناامیدکننده است که این شامل ادعای «سوار شدن رایگان» بود که ChatGPT به طور ناعادلانه از اخبار حساس به زمان «خبر داغ» بهره‌برداری می‌کند، از جمله پست‌های Wirecutter نیویورک تایمز. استاین توضیح داد که ناشران خبری نتوانسته‌اند به طور قابل قبولی عدم انتساب را ادعا کنند (که برای ادعای سوار شدن رایگان کلیدی است) زیرا، به عنوان مثال، ChatGPT به نیویورک تایمز هنگام به اشتراک‌گذاری اطلاعات از پست‌های Wirecutter اشاره می‌کند. این ادعاها به هر حال توسط قانون حق نشر پیش‌بینی شده‌اند، استاین نوشت و درخواست OpenAI برای رد را تأیید کرد.

استاین همچنین ادعای نیویورک تایمز در مورد حذف اطلاعات مدیریت حق نشر (CMI) را رد کرد، که استاین گفت نمی‌توان به سادگی ثابت کرد زیرا ChatGPT بخش‌هایی از مقالات نیویورک تایمز را بدون CMI بازتولید می‌کند.

قانون حق نشر دیجیتال (DMCA) نیاز دارد که ناشران خبری نشان دهند که خروجی‌های ChatGPT «نزدیک به مشابه» اثر اصلی هستند، استاین گفت و اجازه دادن به ادعاهای ناشران بر اساس بخش‌ها «ریسک مسئولیت بی‌پایان DMCA» را به همراه دارد - از جمله برای هر استفاده از نقل قول‌های بلوکی بدون CMI.

از یک سخنگوی OpenAI در مورد حکم درخواست شد، اما او از ورود به جزئیات خودداری کرد و به جای آن استدلال طولانی‌مدت OpenAI را تکرار کرد که آموزش AI بر اساس آثار دارای حق نشر استفاده منصفانه است. (ماه گذشته، OpenAI به دونالد ترامپ هشدار داد که ایالات متحده در صورت صدور حکم برعلیه این استدلال، در رقابت AI با چین شکست خواهد خورد.)

سخنگوی OpenAI گفت: "ChatGPT به تقویت خلاقیت انسانی، پیشرفت کشف علمی و تحقیقات پزشکی و توانمندسازی صدها میلیون نفر برای بهبود زندگی روزمره‌شان کمک می‌کند. مدل‌های ما نوآوری را توانمند می‌سازند و بر اساس داده‌های عمومی و در چارچوب استفاده منصفانه آموزش دیده‌اند."

منبع:Ars Technica
در حال بارگذاری نظرات...
نظر شما:
0/800