
در عصر هوش مصنوعی، باید از خلاقیت انسانی به عنوان یک منبع طبیعی محافظت کنیم
تاریخ انتشار:
مقدمه
به طرز جالبی، عصر فعلی هوش مصنوعی بر ارزش عظیم خلاقیت انسانی نورافکنی کرده است، در حالی که پیشرفتهای فناوری تهدیدی برای آن به شمار میروند. در حالی که غولهای فناوری به سرعت در حال ساخت مدلهای جدید هوش مصنوعی هستند، رباتهای جستجوگر آنها محتوای خلاقانه را جمعآوری میکنند و همین مدلها سیلابی از رسانههای مصنوعی تولید میکنند که خطر غرق شدن جرقه خلاقانه انسانی را در اقیانوسی از محتوای بیکیفیت به همراه دارد.
منبع محدود
با جذب میلیاردها اثر، چتباتها یاد میگیرند که صحبت کنند و تولیدکنندگان تصویر یاد میگیرند که نقاشی کنند. در این مسیر، شرکتهای هوش مصنوعی فرهنگ مشترک ما را مانند منبعی بیپایان برای استخراج در نظر میگیرند، بدون اینکه به عواقب آن فکر کنند.
اما خلاقیت انسانی محصول یک فرآیند صنعتی نیست؛ به طور ذاتی محدود است، زیرا ما موجودات بیولوژیکی محدودی هستیم که از تجربیات واقعی زندگی الهام میگیریم و خلاقیت را با نیازهای زندگی—خواب، بهبودی عاطفی و طول عمر محدود—متعادل میکنیم. خلاقیت از برقراری ارتباطات ناشی میشود و برای اینکه این ارتباطات معنادار باشند، انرژی، زمان و بینش لازم است. تا به حال، مغز انسانی پیشنیاز برقراری این نوع ارتباطات بود و دلیلی وجود دارد که این موضوع ارزشمند است.
هر مغز انسانی تنها یک انبار داده نیست—بلکه یک موتور دانش است که به طور منحصر به فردی فکر میکند و ترکیبهای جدیدی از ایدهها ایجاد میکند. به جای اینکه یک "ماشین ارتباطی" (مدل هوش مصنوعی) را یک میلیون بار تکرار کنیم، ما هفت میلیارد شبکه عصبی داریم که هر کدام دیدگاه منحصر به فردی دارند. اتکای ما به تنوع شناختی تفکر انسانی به ما کمک میکند تا از تفکر یکپارچهای که ممکن است اگر همه از منابع تولید شده توسط هوش مصنوعی استفاده کنند، فرار کنیم.
امروزه، مدلهای کسبوکار صنعت هوش مصنوعی به طور ناخواسته پژواکدهنده روشهایی هستند که صنعتگران اولیه به جنگلها و شیلات نزدیک میشدند—به عنوان ورودیهای رایگان برای بهرهبرداری بدون در نظر گرفتن محدودیتهای اکولوژیکی.
همانطور که آلودگی ناشی از کارخانههای اولیه به طور غیرمنتظرهای به محیط زیست آسیب رساند، سیستمهای هوش مصنوعی نیز خطر آلودگی محیط دیجیتال را با سیلابی از محتوای مصنوعی به همراه دارند. مانند جنگلی که برای شکوفایی نیاز به مدیریت دقیق دارد یا شیلاتی که به دلیل بهرهبرداری بیش از حد آسیبپذیر است، اکوسیستم خلاقانه میتواند تخریب شود حتی اگر پتانسیل تخیل باقی بماند.
بدهی خلاقانه هوش مصنوعی
هر چتبات هوش مصنوعی یا تولیدکننده تصویر تنها به دلیل آثار انسانی وجود دارد و بسیاری از هنرمندان سنتی به شدت با روشهای آموزشی فعلی هوش مصنوعی مخالفت میکنند و آنها را دزدی ادبی مینامند. شرکتهای فناوری معمولاً با این نظر مخالف هستند، هرچند مواضع آنها متفاوت است. به عنوان مثال، در سال 2023، غول تصویربرداری ادوبی گام غیرمعمولی برداشت و مدلهای هوش مصنوعی Firefly خود را تنها بر اساس عکسهای دارای مجوز و آثار عمومی آموزش داد و نشان داد که رویکردهای جایگزین ممکن است.
مدل مجوز ادوبی تضادی با شرکتهایی مانند OpenAI ارائه میدهد که به شدت به جمعآوری مقادیر زیادی از محتوای اینترنتی بدون تمایز بین آثار دارای مجوز و بدون مجوز متکی هستند.
OpenAI ادعا کرده است که این نوع جمعآوری به عنوان "استفاده عادلانه" محسوب میشود و به طور مؤثری ادعا میکند که مدلهای هوش مصنوعی رقابتی در سطوح فعلی عملکرد نمیتوانند بدون اتکا به دادههای آموزشی بدون مجوز توسعه یابند، با وجود رویکرد جایگزین ادوبی.
استدلال "استفاده عادلانه" معمولاً به مفهوم قانونی "استفاده تحولزا" وابسته است، ایدهای که استفاده از آثار برای هدفی کاملاً متفاوت از بیان خلاقانه—مانند شناسایی الگوها برای هوش مصنوعی—نقض حق کپیرایت نمیکند. حامیان هوش مصنوعی تولیدی معمولاً ادعا میکنند که رویکرد آنها مشابه نحوه یادگیری هنرمندان انسانی از دنیای اطرافشان است.
در همین حال، هنرمندان نگرانی فزایندهای درباره از دست دادن معیشت خود به دلیل روی آوردن شرکتها به محتوای ارزان و به طور آنی تولید شده توسط هوش مصنوعی ابراز میکنند. آنها همچنین خواستار مرزهای روشن و مدلهای مبتنی بر رضایت هستند تا به توسعهدهندگان اجازه ندهند بدون شناخت یا جبران از آثار آنها ارزش استخراج کنند.
حق کپیرایت به عنوان چرخش محصول
این تنش بین هنرمندان و هوش مصنوعی دیدگاه عمیقتری درباره خود خلاقیت را نشان میدهد. ماهیت محدود زمانی حق کپیرایت به عنوان شکلی از مدیریت منابع طراحی شده است، مانند چرخش محصول یا فصول ماهیگیری تنظیمشده که اجازه بازسازی را میدهند. انقضای حق کپیرایت یک نقص نیست؛ طراحان آن امیدوار بودند که این امر تضمین کند که یک تأمین مداوم از دامنه عمومی وجود داشته باشد که اکوسیستم را تغذیه کند و خلاقیتهای آینده از آن نشأت بگیرد.
از طرف دیگر، خروجیهای کاملاً تولید شده توسط هوش مصنوعی در ایالات متحده نمیتوانند دارای حق کپیرایت باشند، که ممکن است انفجاری بیسابقه در محتوای دامنه عمومی ایجاد کند، هرچند محتوایی که حاوی تقلیدهای نرم شده از دیدگاههای انسانی است.
رفتار با محتوای تولید شده توسط انسان به عنوان تنها ماده خام برای آموزش هوش مصنوعی این تعادل اکولوژیکی بین "هنرمند به عنوان مصرفکننده ایدههای خلاقانه" و "هنرمند به عنوان تولیدکننده" را مختل میکند. تمدیدهای مکرر قانونی حق کپیرایت به طور قابل توجهی چرخه تأمین را به تأخیر انداخته و آثار را برای مدت زمان بسیار طولانیتری از آنچه که در ابتدا تصور میشد، از دامنه عمومی خارج کرده است. اکنون، رویکرد استخراج عمده هوش مصنوعی این تعادل ظریف را بیشتر تهدید میکند.
منبع تحت فشار
اکوسیستم خلاقانه ما در حال حاضر از تأثیرات هوش مصنوعی تحت فشار قابل اندازهگیری قرار دارد، از بارهای زیرساختی ملموس در حال حاضر تا احتمالهای نگرانکننده آینده.
رباتهای جستجوی تهاجمی هوش مصنوعی در حال حاضر به طور مؤثری به عنوان حملات انکار سرویس بر روی برخی سایتها عمل میکنند، با مستندات Cloudflare از تأثیر فوری GPTBot بر الگوهای ترافیکی. تجربه ویکیمدیا شواهد روشنی از هزینههای کنونی ارائه میدهد: رباتهای جستجوگر هوش مصنوعی موجب افزایش 50 درصدی پهنای باند شدهاند که این امر غیرانتفاعی را مجبور به اختصاص منابع محدود به اقدامات دفاعی به جای مأموریت اصلی خود یعنی به اشتراکگذاری دانش کرده است. همانطور که ویکیمدیا میگوید، "محتوای ما رایگان است، اما زیرساخت ما رایگان نیست." بسیاری از این رباتها به وضوح مرزهای فنی مانند فایلهای robots.txt را نادیده میگیرند.
فراتر از فشار زیرساختی، محیط اطلاعات ما نیز نشانههایی از تخریب نشان میدهد. گوگل به طور عمومی از افزایش حجم محتوای "اسپم و بیکیفیت"، که اغلب به طور خودکار تولید میشود، در نتایج جستجو خبر داده است. یک تحقیق AWired نمونههای مشخصی از دزدی ادبی تولید شده توسط هوش مصنوعی را یافت که گاهی اوقات در نتایج جستجو از گزارشهای اصلی پیشی میگیرد. این نوع آلودگی دیجیتال موجب شد که راس اندرسون از دانشگاه کمبریج آن را به پر کردن اقیانوسها با پلاستیک تشبیه کند—این یک آلودگی در فضاهای اطلاعات مشترک ماست.
با نگاه به آینده، خطرات بیشتری ممکن است بروز کنند. مقایسه تد چیانگ از LLMها با JPEGهای از دست رفته چارچوبی برای درک مشکلات بالقوه ارائه میدهد، زیرا هر نسل هوش مصنوعی اطلاعات وب را به یک شبیهسازی "مبهمتر" از دانش انسانی خلاصه میکند. توسعه منطقی این فرایند—آنچه برخی محققان آن را "فرورفتگی مدل" مینامند—ریسکی از تخریب در اکوسیستم دانش جمعی ما را ارائه میدهد اگر مدلها به طور غیرمتمایز بر روی خروجیهای خود آموزش ببینند. (با این حال، این با دادههای مصنوعی طراحی شده به دقت که واقعاً میتواند کارایی مدل را بهبود بخشد، متفاوت است.)
این چرخه نزولی آلودگی هوش مصنوعی ممکن است به زودی شبیه یک "فاجعه مشترک" کلاسیک باشد، که در آن سازمانها از منافع خود عمل میکنند و به هزینه منابع مشترک. اگر توسعهدهندگان هوش مصنوعی به استخراج دادهها بدون محدودیت یا مشارکتهای معنادار ادامه دهند، منبع مشترک خلاقیت انسانی ممکن است در نهایت برای همه تخریب شود.
حفاظت از جرقه انسانی

در حالی که مدلهای هوش مصنوعی که خلاقیت را در نوشتن، کدنویسی، تصاویر، صدا یا ویدئو شبیهسازی میکنند، میتوانند تقلیدهای شگفتانگیزی از آثار انسانی را به دست آورند، این تقلید پیشرفته در حال حاضر فاقد عمق کامل تجربه انسانی است.
به عنوان مثال، مدلهای هوش مصنوعی بدنی ندارند که درد و رنجهای زندگی انسانی را تحمل کند. آنها در طول عمر انسانی به صورت واقعی رشد نمیکنند. زمانی که یک خروجی تولید شده توسط هوش مصنوعی به طور تصادفی با ما ارتباط عاطفی برقرار میکند، اغلب این کار را با تقلید از الگوهایی که از یک هنرمند انسانی که واقعاً آن درد یا شادی را تجربه کرده است، انجام میدهد.
حتی اگر سیستمهای هوش مصنوعی آینده شبیهسازیهای پیچیدهتری از حالات عاطفی یا تجربیات بدنی توسعه دهند، آنها همچنان به طور بنیادی از خلاقیت انسانی که به طور ارگانیک از تجربه زیسته بیولوژیکی، زمینه فرهنگی و تعامل اجتماعی ناشی میشود، متفاوت خواهند بود.
این به این دلیل است که جهان به طور مداوم تغییر میکند. انواع جدیدی از تجربه انسانی ظهور میکنند. اگر یک مدل هوش مصنوعی که به طور اخلاقی آموزش دیده باشد، بخواهد مفید باقی بماند، محققان باید آن را بر اساس تجربیات انسانی اخیر، مانند روندهای ویروسی، زبانهای در حال تحول و تغییرات فرهنگی آموزش دهند.
راهحلهای فعلی هوش مصنوعی، مانند تولید تقویتشده بازیابی (RAG)، این چالش را تا حدی با بازیابی اطلاعات بهروز و خارجی برای مکمل دادههای آموزشی ایستا خود حل میکنند. با این حال، حتی روشهای RAG به شدت به محتوای انسانی با کیفیت بالا و تأیید شده وابسته هستند—همان نوع دادهای که در معرض خطر است اگر محیط دیجیتال ما با خروجیهای تولید شده توسط هوش مصنوعی با کیفیت پایین غرق شود.
این نیاز به دادههای انسانی با کیفیت بالا یکی از دلایل اصلی است که شرکتهایی مانند OpenAI به دنبال توافقات رسانهای (از جمله توافقی که در اوت گذشته با والدین Ars Technica امضا شد) بودهاند. با این حال، به طور پارادوکسیکال، همان مدلهایی که از دادههای انسانی ارزشمند تغذیه میکنند، اغلب همان محتوای اسپم و بیکیفیتی را تولید میکنند که مناطق عمومی اینترنت را غرق میکند و اکوسیستم را که به آن وابستهاند، تخریب میکند.
هوش مصنوعی به عنوان حمایت خلاقانه
وقتی به طور بیاحتیاط یا بیش از حد استفاده شود، هوش مصنوعی تولیدی تهدیدی برای اکوسیستم خلاقانه است، اما نمیتوانیم به طور کامل این فناوری را به عنوان ابزاری در زرادخانه خلاقانه انسانی نادیده بگیریم. تاریخ هنر پر از تغییرات فناوری است (رنگهای جدید، قلمموها، ماشینهای تحریر، پردازشگرهای کلمات) که ماهیت تولید هنری را تغییر میدهند در حالی که خلاقیت انسانی را تقویت میکنند.
لطفاً با من همراه باشید زیرا در اینجا جزئیات زیادی وجود دارد که در واکنشهای پرشور امروزی نسبت به استفاده از هوش مصنوعی به عنوان ابزاری خشن برای ایجاد بیکیفیتی، به راحتی نادیده گرفته میشود.
در حالی که بسیاری از هنرمندان به درستی نگران تمایلات استخراجی هوش مصنوعی هستند، تحقیقی که در Harvard Business Review منتشر شده نشان میدهد که ابزارهای هوش مصنوعی میتوانند به جای اینکه تنها ظرفیت خلاقانه را استخراج کنند، آن را تقویت کنند و نشان میدهند که تحت شرایط مناسب، یک رابطه همزیستی ممکن است.
در این استدلال، استفاده مسئولانه از هوش مصنوعی در مهارت کاربر منعکس میشود. شما میتوانید از یک قلممو برای رنگآمیزی یک دیوار یا رنگآمیزی مونا لیزا استفاده کنید. به همین ترتیب، هوش مصنوعی تولیدی میتواند به طور بیفکر یک بوم را با بیکیفیتی پر کند، یا یک انسان میتواند از آن برای بیان ایدههای خود استفاده کند.
ابزارهای یادگیری ماشین (مانند آنهایی که در Adobe Photoshop وجود دارند) در حال حاضر به خلاقان انسانی کمک میکنند تا مفاهیم را سریعتر پروتوتایپ کنند، بر روی تغییراتی که هرگز در نظر نمیگرفتند، تکرار کنند یا برخی از وظایف تولید تکراری مانند حذف اشیاء یا رونویسی صوتی را انجام دهند و به انسانها اجازه میدهند تا بر روی جهتگیری مفهومی و همخوانی عاطفی تمرکز کنند.
این جنبههای مثبت بالقوه، با این حال، نیاز به مدیریت مسئولانه و احترام به خلاقیت انسانی به عنوان یک منبع باارزش را نفی نمیکند.
پرورش آینده
پس یک اکوسیستم پایدار برای خلاقیت انسانی چه چیزی را شامل میشود؟
رویکردهای قانونی و اقتصادی احتمالاً کلیدی خواهند بود. دولتها میتوانند قانونی وضع کنند که آموزش هوش مصنوعی باید به صورت اختیاری باشد، یا حداقل، یک ثبتنام اختیاری جمعی ارائه دهند (همانطور که "قانون هوش مصنوعی" اتحادیه اروپا انجام میدهد).
سایر مکانیزمهای بالقوه شامل سیستمهای مجوز یا حق امتیاز قوی است، مانند ایجاد یک clearinghouse حق امتیاز (مانند BMI یا ASCAP در صنعت موسیقی) برای مجوزدهی کارآمد و جبران عادلانه. این هزینهها میتواند به جبران خلاقان انسانی کمک کند و آنها را تشویق کند که به خلق آثار خود در آینده ادامه دهند.
تغییرات عمیقتر ممکن است شامل ارزشها و حاکمیت فرهنگی باشد. الهام گرفته از مدلهایی مانند "گنجینههای ملی زنده" ژاپن—جایی که دولت هنرمندان را برای حفظ مهارتهای حیاتی و حمایت از کارشان تأمین مالی میکند. آیا میتوانیم برنامههایی را ایجاد کنیم که به طور مشابه از خالقان انسانی حمایت کند و در عین حال برخی آثار یا شیوهها را به عنوان "ذخایر خلاقانه" تعیین کند، به طوری که ایجاد آثار خلاقانه خاصی را حتی اگر بازار اقتصادی آنها خشک شود، تأمین مالی کند؟
یا یک تغییر رادیکالتر ممکن است شامل "مشترکالمنافع هوش مصنوعی" باشد—اعلام قانونی که هر مدل هوش مصنوعی که بر اساس دادههای عمومی جمعآوری شده آموزش دیده باشد، باید به طور جمعی به عنوان یک دامنه عمومی مشترک مالکیت داشته باشد، به طوری که مزایای آن به جامعه بازگردد و تنها شرکتها را غنی نکند.
در همین حال، پلتفرمهای اینترنتی در حال حاضر در حال آزمایش دفاعهای فنی در برابر تقاضاهای صنعتی از مقیاس هوش مصنوعی هستند. مثالهایی شامل چالشهای اثبات کار، "تارپیتهای" کاهش سرعت (مانند Nepenthes)، لیستهای مسدودکننده مشترک رباتها ("ai.robots.txt")، ابزارهای تجاری (Labyrinth هوش مصنوعی Cloudflare) و ابتکار "WE5: استفاده مسئولانه از زیرساخت" ویکیمدیا هستند.
این راهحلها کامل نیستند و اجرای هر یک از آنها نیاز به غلبه بر موانع عملی قابل توجهی دارد. قوانین سختگیرانه ممکن است توسعه مفید هوش مصنوعی را کند کند؛ سیستمهای اختیاری بار سنگینی بر دوش خالقان میگذارند، در حالی که مدلهای اختیاری میتوانند پیچیده باشند. در همین حال، دفاعهای فنی اغلب مسابقات تسلیحاتی را به همراه دارند. یافتن یک تعادل پایدار و عادلانه همچنان چالش اصلی است. این مسئله در یک روز حل نخواهد شد.
سرمایهگذاری در مردم
در حالی که پیمودن این چالشهای سیستمیک پیچیده زمان و تلاش جمعی میطلبد، یک استراتژی به طرز شگفتآوری مستقیم وجود دارد که سازمانها میتوانند هماکنون اتخاذ کنند: سرمایهگذاری در مردم. ارتباط و بینش انسانی را برای صرفهجویی در هزینه با خروجیهای بیکیفیت هوش مصنوعی قربانی نکنید.
سازمانهایی که دیدگاههای انسانی منحصر به فرد را پرورش میدهند و آنها را با تقویت هوش مصنوعی فکر شده ادغام میکنند، احتمالاً از آنهایی که به دنبال کاهش هزینه از طریق اتوماسیون خلاقانه عمده هستند، پیشی خواهند گرفت. سرمایهگذاری در مردم به این معناست که در حالی که هوش مصنوعی میتواند محتوا را در مقیاس تولید کند، خاص بودن بینش، تجربه و ارتباط انسانی همچنان بیقیمت باقی میماند.