در عصر هوش مصنوعی، باید از خلاقیت انسانی به عنوان یک منبع طبیعی محافظت کنیم

در عصر هوش مصنوعی، باید از خلاقیت انسانی به عنوان یک منبع طبیعی محافظت کنیم

تاریخ انتشار:

در عصر هوش مصنوعی، باید از خلاقیت انسانی به عنوان یک منبع طبیعی محافظت کنیم

مقدمه

به طرز جالبی، عصر فعلی هوش مصنوعی بر ارزش عظیم خلاقیت انسانی نورافکنی کرده است، در حالی که پیشرفت‌های فناوری تهدیدی برای آن به شمار می‌روند. در حالی که غول‌های فناوری به سرعت در حال ساخت مدل‌های جدید هوش مصنوعی هستند، ربات‌های جستجوگر آن‌ها محتوای خلاقانه را جمع‌آوری می‌کنند و همین مدل‌ها سیلابی از رسانه‌های مصنوعی تولید می‌کنند که خطر غرق شدن جرقه خلاقانه انسانی را در اقیانوسی از محتوای بی‌کیفیت به همراه دارد.

منبع محدود

با جذب میلیاردها اثر، چت‌بات‌ها یاد می‌گیرند که صحبت کنند و تولیدکنندگان تصویر یاد می‌گیرند که نقاشی کنند. در این مسیر، شرکت‌های هوش مصنوعی فرهنگ مشترک ما را مانند منبعی بی‌پایان برای استخراج در نظر می‌گیرند، بدون اینکه به عواقب آن فکر کنند.

اما خلاقیت انسانی محصول یک فرآیند صنعتی نیست؛ به طور ذاتی محدود است، زیرا ما موجودات بیولوژیکی محدودی هستیم که از تجربیات واقعی زندگی الهام می‌گیریم و خلاقیت را با نیازهای زندگی—خواب، بهبودی عاطفی و طول عمر محدود—متعادل می‌کنیم. خلاقیت از برقراری ارتباطات ناشی می‌شود و برای اینکه این ارتباطات معنادار باشند، انرژی، زمان و بینش لازم است. تا به حال، مغز انسانی پیش‌نیاز برقراری این نوع ارتباطات بود و دلیلی وجود دارد که این موضوع ارزشمند است.

هر مغز انسانی تنها یک انبار داده نیست—بلکه یک موتور دانش است که به طور منحصر به فردی فکر می‌کند و ترکیب‌های جدیدی از ایده‌ها ایجاد می‌کند. به جای اینکه یک "ماشین ارتباطی" (مدل هوش مصنوعی) را یک میلیون بار تکرار کنیم، ما هفت میلیارد شبکه عصبی داریم که هر کدام دیدگاه منحصر به فردی دارند. اتکای ما به تنوع شناختی تفکر انسانی به ما کمک می‌کند تا از تفکر یکپارچه‌ای که ممکن است اگر همه از منابع تولید شده توسط هوش مصنوعی استفاده کنند، فرار کنیم.

امروزه، مدل‌های کسب‌وکار صنعت هوش مصنوعی به طور ناخواسته پژواک‌دهنده روش‌هایی هستند که صنعتگران اولیه به جنگل‌ها و شیلات نزدیک می‌شدند—به عنوان ورودی‌های رایگان برای بهره‌برداری بدون در نظر گرفتن محدودیت‌های اکولوژیکی.

همان‌طور که آلودگی ناشی از کارخانه‌های اولیه به طور غیرمنتظره‌ای به محیط زیست آسیب رساند، سیستم‌های هوش مصنوعی نیز خطر آلودگی محیط دیجیتال را با سیلابی از محتوای مصنوعی به همراه دارند. مانند جنگلی که برای شکوفایی نیاز به مدیریت دقیق دارد یا شیلاتی که به دلیل بهره‌برداری بیش از حد آسیب‌پذیر است، اکوسیستم خلاقانه می‌تواند تخریب شود حتی اگر پتانسیل تخیل باقی بماند.

بدهی خلاقانه هوش مصنوعی

هر چت‌بات هوش مصنوعی یا تولیدکننده تصویر تنها به دلیل آثار انسانی وجود دارد و بسیاری از هنرمندان سنتی به شدت با روش‌های آموزشی فعلی هوش مصنوعی مخالفت می‌کنند و آن‌ها را دزدی ادبی می‌نامند. شرکت‌های فناوری معمولاً با این نظر مخالف هستند، هرچند مواضع آن‌ها متفاوت است. به عنوان مثال، در سال 2023، غول تصویربرداری ادوبی گام غیرمعمولی برداشت و مدل‌های هوش مصنوعی Firefly خود را تنها بر اساس عکس‌های دارای مجوز و آثار عمومی آموزش داد و نشان داد که رویکردهای جایگزین ممکن است.

مدل مجوز ادوبی تضادی با شرکت‌هایی مانند OpenAI ارائه می‌دهد که به شدت به جمع‌آوری مقادیر زیادی از محتوای اینترنتی بدون تمایز بین آثار دارای مجوز و بدون مجوز متکی هستند.

OpenAI ادعا کرده است که این نوع جمع‌آوری به عنوان "استفاده عادلانه" محسوب می‌شود و به طور مؤثری ادعا می‌کند که مدل‌های هوش مصنوعی رقابتی در سطوح فعلی عملکرد نمی‌توانند بدون اتکا به داده‌های آموزشی بدون مجوز توسعه یابند، با وجود رویکرد جایگزین ادوبی.

استدلال "استفاده عادلانه" معمولاً به مفهوم قانونی "استفاده تحول‌زا" وابسته است، ایده‌ای که استفاده از آثار برای هدفی کاملاً متفاوت از بیان خلاقانه—مانند شناسایی الگوها برای هوش مصنوعی—نقض حق کپی‌رایت نمی‌کند. حامیان هوش مصنوعی تولیدی معمولاً ادعا می‌کنند که رویکرد آن‌ها مشابه نحوه یادگیری هنرمندان انسانی از دنیای اطرافشان است.

در همین حال، هنرمندان نگرانی فزاینده‌ای درباره از دست دادن معیشت خود به دلیل روی آوردن شرکت‌ها به محتوای ارزان و به طور آنی تولید شده توسط هوش مصنوعی ابراز می‌کنند. آن‌ها همچنین خواستار مرزهای روشن و مدل‌های مبتنی بر رضایت هستند تا به توسعه‌دهندگان اجازه ندهند بدون شناخت یا جبران از آثار آن‌ها ارزش استخراج کنند.

حق کپی‌رایت به عنوان چرخش محصول

این تنش بین هنرمندان و هوش مصنوعی دیدگاه عمیق‌تری درباره خود خلاقیت را نشان می‌دهد. ماهیت محدود زمانی حق کپی‌رایت به عنوان شکلی از مدیریت منابع طراحی شده است، مانند چرخش محصول یا فصول ماهی‌گیری تنظیم‌شده که اجازه بازسازی را می‌دهند. انقضای حق کپی‌رایت یک نقص نیست؛ طراحان آن امیدوار بودند که این امر تضمین کند که یک تأمین مداوم از دامنه عمومی وجود داشته باشد که اکوسیستم را تغذیه کند و خلاقیت‌های آینده از آن نشأت بگیرد.

از طرف دیگر، خروجی‌های کاملاً تولید شده توسط هوش مصنوعی در ایالات متحده نمی‌توانند دارای حق کپی‌رایت باشند، که ممکن است انفجاری بی‌سابقه در محتوای دامنه عمومی ایجاد کند، هرچند محتوایی که حاوی تقلیدهای نرم شده از دیدگاه‌های انسانی است.

رفتار با محتوای تولید شده توسط انسان به عنوان تنها ماده خام برای آموزش هوش مصنوعی این تعادل اکولوژیکی بین "هنرمند به عنوان مصرف‌کننده ایده‌های خلاقانه" و "هنرمند به عنوان تولیدکننده" را مختل می‌کند. تمدیدهای مکرر قانونی حق کپی‌رایت به طور قابل توجهی چرخه تأمین را به تأخیر انداخته و آثار را برای مدت زمان بسیار طولانی‌تری از آنچه که در ابتدا تصور می‌شد، از دامنه عمومی خارج کرده است. اکنون، رویکرد استخراج عمده هوش مصنوعی این تعادل ظریف را بیشتر تهدید می‌کند.

منبع تحت فشار

اکوسیستم خلاقانه ما در حال حاضر از تأثیرات هوش مصنوعی تحت فشار قابل اندازه‌گیری قرار دارد، از بارهای زیرساختی ملموس در حال حاضر تا احتمال‌های نگران‌کننده آینده.

ربات‌های جستجوی تهاجمی هوش مصنوعی در حال حاضر به طور مؤثری به عنوان حملات انکار سرویس بر روی برخی سایت‌ها عمل می‌کنند، با مستندات Cloudflare از تأثیر فوری GPTBot بر الگوهای ترافیکی. تجربه ویکی‌مدیا شواهد روشنی از هزینه‌های کنونی ارائه می‌دهد: ربات‌های جستجوگر هوش مصنوعی موجب افزایش 50 درصدی پهنای باند شده‌اند که این امر غیرانتفاعی را مجبور به اختصاص منابع محدود به اقدامات دفاعی به جای مأموریت اصلی خود یعنی به اشتراک‌گذاری دانش کرده است. همان‌طور که ویکی‌مدیا می‌گوید، "محتوای ما رایگان است، اما زیرساخت ما رایگان نیست." بسیاری از این ربات‌ها به وضوح مرزهای فنی مانند فایل‌های robots.txt را نادیده می‌گیرند.

فراتر از فشار زیرساختی، محیط اطلاعات ما نیز نشانه‌هایی از تخریب نشان می‌دهد. گوگل به طور عمومی از افزایش حجم محتوای "اسپم و بی‌کیفیت"، که اغلب به طور خودکار تولید می‌شود، در نتایج جستجو خبر داده است. یک تحقیق AWired نمونه‌های مشخصی از دزدی ادبی تولید شده توسط هوش مصنوعی را یافت که گاهی اوقات در نتایج جستجو از گزارش‌های اصلی پیشی می‌گیرد. این نوع آلودگی دیجیتال موجب شد که راس اندرسون از دانشگاه کمبریج آن را به پر کردن اقیانوس‌ها با پلاستیک تشبیه کند—این یک آلودگی در فضاهای اطلاعات مشترک ماست.

با نگاه به آینده، خطرات بیشتری ممکن است بروز کنند. مقایسه تد چیانگ از LLMها با JPEGهای از دست رفته چارچوبی برای درک مشکلات بالقوه ارائه می‌دهد، زیرا هر نسل هوش مصنوعی اطلاعات وب را به یک شبیه‌سازی "مبهم‌تر" از دانش انسانی خلاصه می‌کند. توسعه منطقی این فرایند—آنچه برخی محققان آن را "فرورفتگی مدل" می‌نامند—ریسکی از تخریب در اکوسیستم دانش جمعی ما را ارائه می‌دهد اگر مدل‌ها به طور غیرمتمایز بر روی خروجی‌های خود آموزش ببینند. (با این حال، این با داده‌های مصنوعی طراحی شده به دقت که واقعاً می‌تواند کارایی مدل را بهبود بخشد، متفاوت است.)

این چرخه نزولی آلودگی هوش مصنوعی ممکن است به زودی شبیه یک "فاجعه مشترک" کلاسیک باشد، که در آن سازمان‌ها از منافع خود عمل می‌کنند و به هزینه منابع مشترک. اگر توسعه‌دهندگان هوش مصنوعی به استخراج داده‌ها بدون محدودیت یا مشارکت‌های معنادار ادامه دهند، منبع مشترک خلاقیت انسانی ممکن است در نهایت برای همه تخریب شود.

حفاظت از جرقه انسانی

Photo of the famous

در حالی که مدل‌های هوش مصنوعی که خلاقیت را در نوشتن، کدنویسی، تصاویر، صدا یا ویدئو شبیه‌سازی می‌کنند، می‌توانند تقلیدهای شگفت‌انگیزی از آثار انسانی را به دست آورند، این تقلید پیشرفته در حال حاضر فاقد عمق کامل تجربه انسانی است.

به عنوان مثال، مدل‌های هوش مصنوعی بدنی ندارند که درد و رنج‌های زندگی انسانی را تحمل کند. آن‌ها در طول عمر انسانی به صورت واقعی رشد نمی‌کنند. زمانی که یک خروجی تولید شده توسط هوش مصنوعی به طور تصادفی با ما ارتباط عاطفی برقرار می‌کند، اغلب این کار را با تقلید از الگوهایی که از یک هنرمند انسانی که واقعاً آن درد یا شادی را تجربه کرده است، انجام می‌دهد.

حتی اگر سیستم‌های هوش مصنوعی آینده شبیه‌سازی‌های پیچیده‌تری از حالات عاطفی یا تجربیات بدنی توسعه دهند، آن‌ها همچنان به طور بنیادی از خلاقیت انسانی که به طور ارگانیک از تجربه زیسته بیولوژیکی، زمینه فرهنگی و تعامل اجتماعی ناشی می‌شود، متفاوت خواهند بود.

این به این دلیل است که جهان به طور مداوم تغییر می‌کند. انواع جدیدی از تجربه انسانی ظهور می‌کنند. اگر یک مدل هوش مصنوعی که به طور اخلاقی آموزش دیده باشد، بخواهد مفید باقی بماند، محققان باید آن را بر اساس تجربیات انسانی اخیر، مانند روندهای ویروسی، زبان‌های در حال تحول و تغییرات فرهنگی آموزش دهند.

راه‌حل‌های فعلی هوش مصنوعی، مانند تولید تقویت‌شده بازیابی (RAG)، این چالش را تا حدی با بازیابی اطلاعات به‌روز و خارجی برای مکمل داده‌های آموزشی ایستا خود حل می‌کنند. با این حال، حتی روش‌های RAG به شدت به محتوای انسانی با کیفیت بالا و تأیید شده وابسته هستند—همان نوع داده‌ای که در معرض خطر است اگر محیط دیجیتال ما با خروجی‌های تولید شده توسط هوش مصنوعی با کیفیت پایین غرق شود.

این نیاز به داده‌های انسانی با کیفیت بالا یکی از دلایل اصلی است که شرکت‌هایی مانند OpenAI به دنبال توافقات رسانه‌ای (از جمله توافقی که در اوت گذشته با والدین Ars Technica امضا شد) بوده‌اند. با این حال، به طور پارادوکسیکال، همان مدل‌هایی که از داده‌های انسانی ارزشمند تغذیه می‌کنند، اغلب همان محتوای اسپم و بی‌کیفیتی را تولید می‌کنند که مناطق عمومی اینترنت را غرق می‌کند و اکوسیستم را که به آن وابسته‌اند، تخریب می‌کند.

هوش مصنوعی به عنوان حمایت خلاقانه

وقتی به طور بی‌احتیاط یا بیش از حد استفاده شود، هوش مصنوعی تولیدی تهدیدی برای اکوسیستم خلاقانه است، اما نمی‌توانیم به طور کامل این فناوری را به عنوان ابزاری در زرادخانه خلاقانه انسانی نادیده بگیریم. تاریخ هنر پر از تغییرات فناوری است (رنگ‌های جدید، قلم‌موها، ماشین‌های تحریر، پردازشگرهای کلمات) که ماهیت تولید هنری را تغییر می‌دهند در حالی که خلاقیت انسانی را تقویت می‌کنند.

لطفاً با من همراه باشید زیرا در اینجا جزئیات زیادی وجود دارد که در واکنش‌های پرشور امروزی نسبت به استفاده از هوش مصنوعی به عنوان ابزاری خشن برای ایجاد بی‌کیفیتی، به راحتی نادیده گرفته می‌شود.

در حالی که بسیاری از هنرمندان به درستی نگران تمایلات استخراجی هوش مصنوعی هستند، تحقیقی که در Harvard Business Review منتشر شده نشان می‌دهد که ابزارهای هوش مصنوعی می‌توانند به جای اینکه تنها ظرفیت خلاقانه را استخراج کنند، آن را تقویت کنند و نشان می‌دهند که تحت شرایط مناسب، یک رابطه همزیستی ممکن است.

در این استدلال، استفاده مسئولانه از هوش مصنوعی در مهارت کاربر منعکس می‌شود. شما می‌توانید از یک قلم‌مو برای رنگ‌آمیزی یک دیوار یا رنگ‌آمیزی مونا لیزا استفاده کنید. به همین ترتیب، هوش مصنوعی تولیدی می‌تواند به طور بی‌فکر یک بوم را با بی‌کیفیتی پر کند، یا یک انسان می‌تواند از آن برای بیان ایده‌های خود استفاده کند.

ابزارهای یادگیری ماشین (مانند آن‌هایی که در Adobe Photoshop وجود دارند) در حال حاضر به خلاقان انسانی کمک می‌کنند تا مفاهیم را سریع‌تر پروتوتایپ کنند، بر روی تغییراتی که هرگز در نظر نمی‌گرفتند، تکرار کنند یا برخی از وظایف تولید تکراری مانند حذف اشیاء یا رونویسی صوتی را انجام دهند و به انسان‌ها اجازه می‌دهند تا بر روی جهت‌گیری مفهومی و هم‌خوانی عاطفی تمرکز کنند.

این جنبه‌های مثبت بالقوه، با این حال، نیاز به مدیریت مسئولانه و احترام به خلاقیت انسانی به عنوان یک منبع باارزش را نفی نمی‌کند.

پرورش آینده

پس یک اکوسیستم پایدار برای خلاقیت انسانی چه چیزی را شامل می‌شود؟

رویکردهای قانونی و اقتصادی احتمالاً کلیدی خواهند بود. دولت‌ها می‌توانند قانونی وضع کنند که آموزش هوش مصنوعی باید به صورت اختیاری باشد، یا حداقل، یک ثبت‌نام اختیاری جمعی ارائه دهند (همان‌طور که "قانون هوش مصنوعی" اتحادیه اروپا انجام می‌دهد).

سایر مکانیزم‌های بالقوه شامل سیستم‌های مجوز یا حق امتیاز قوی است، مانند ایجاد یک clearinghouse حق امتیاز (مانند BMI یا ASCAP در صنعت موسیقی) برای مجوزدهی کارآمد و جبران عادلانه. این هزینه‌ها می‌تواند به جبران خلاقان انسانی کمک کند و آن‌ها را تشویق کند که به خلق آثار خود در آینده ادامه دهند.

تغییرات عمیق‌تر ممکن است شامل ارزش‌ها و حاکمیت فرهنگی باشد. الهام گرفته از مدل‌هایی مانند "گنجینه‌های ملی زنده" ژاپن—جایی که دولت هنرمندان را برای حفظ مهارت‌های حیاتی و حمایت از کارشان تأمین مالی می‌کند. آیا می‌توانیم برنامه‌هایی را ایجاد کنیم که به طور مشابه از خالقان انسانی حمایت کند و در عین حال برخی آثار یا شیوه‌ها را به عنوان "ذخایر خلاقانه" تعیین کند، به طوری که ایجاد آثار خلاقانه خاصی را حتی اگر بازار اقتصادی آن‌ها خشک شود، تأمین مالی کند؟

یا یک تغییر رادیکال‌تر ممکن است شامل "مشترک‌المنافع هوش مصنوعی" باشد—اعلام قانونی که هر مدل هوش مصنوعی که بر اساس داده‌های عمومی جمع‌آوری شده آموزش دیده باشد، باید به طور جمعی به عنوان یک دامنه عمومی مشترک مالکیت داشته باشد، به طوری که مزایای آن به جامعه بازگردد و تنها شرکت‌ها را غنی نکند.

در همین حال، پلتفرم‌های اینترنتی در حال حاضر در حال آزمایش دفاع‌های فنی در برابر تقاضاهای صنعتی از مقیاس هوش مصنوعی هستند. مثال‌هایی شامل چالش‌های اثبات کار، "تارپیت‌های" کاهش سرعت (مانند Nepenthes)، لیست‌های مسدودکننده مشترک ربات‌ها ("ai.robots.txt")، ابزارهای تجاری (Labyrinth هوش مصنوعی Cloudflare) و ابتکار "WE5: استفاده مسئولانه از زیرساخت" ویکی‌مدیا هستند.

این راه‌حل‌ها کامل نیستند و اجرای هر یک از آن‌ها نیاز به غلبه بر موانع عملی قابل توجهی دارد. قوانین سختگیرانه ممکن است توسعه مفید هوش مصنوعی را کند کند؛ سیستم‌های اختیاری بار سنگینی بر دوش خالقان می‌گذارند، در حالی که مدل‌های اختیاری می‌توانند پیچیده باشند. در همین حال، دفاع‌های فنی اغلب مسابقات تسلیحاتی را به همراه دارند. یافتن یک تعادل پایدار و عادلانه همچنان چالش اصلی است. این مسئله در یک روز حل نخواهد شد.

سرمایه‌گذاری در مردم

در حالی که پیمودن این چالش‌های سیستمیک پیچیده زمان و تلاش جمعی می‌طلبد، یک استراتژی به طرز شگفت‌آوری مستقیم وجود دارد که سازمان‌ها می‌توانند هم‌اکنون اتخاذ کنند: سرمایه‌گذاری در مردم. ارتباط و بینش انسانی را برای صرفه‌جویی در هزینه با خروجی‌های بی‌کیفیت هوش مصنوعی قربانی نکنید.

سازمان‌هایی که دیدگاه‌های انسانی منحصر به فرد را پرورش می‌دهند و آن‌ها را با تقویت هوش مصنوعی فکر شده ادغام می‌کنند، احتمالاً از آن‌هایی که به دنبال کاهش هزینه از طریق اتوماسیون خلاقانه عمده هستند، پیشی خواهند گرفت. سرمایه‌گذاری در مردم به این معناست که در حالی که هوش مصنوعی می‌تواند محتوا را در مقیاس تولید کند، خاص بودن بینش، تجربه و ارتباط انسانی همچنان بی‌قیمت باقی می‌ماند.

منبع:Ars Technica
در حال بارگذاری نظرات...
نظر شما:
0/800