انتهى العصر الذي كان فيه الإنترنت ساحة يهيمن عليها البشر الذين ينشرون تحديثات على وسائل التواصل الاجتماعي أو يتبادلون النكات والصور المضحكة. ففي وقت سابق من هذا العام، ولأول مرة منذ بدء تتبع هذه البيانات، شكّلت البوتات المتصفحة للويب — وليس البشر — النسبة الأكبر من حركة المرور على الإنترنت.
وأكثر من نصف هذا النشاط الخاص بالبوتات يأتي من بوتات خبيثة تجمع البيانات الشخصية المتروكة دون حماية على الإنترنت. لكن هناك نسبة متزايدة من هذه الحركة مصدرها بوتات ترسلها شركات الذكاء الاصطناعي لجمع البيانات لتدريب نماذجها أو للاستجابة لطلبات المستخدمين. فعلى سبيل المثال، أصبح بوت ChatGPT-User، الذي يُشغّل نظام ChatGPT التابع لشركة OpenAI، مسؤولًا الآن عن 6% من إجمالي حركة المرور على الإنترنت، بينما يشكل ClaudeBot، النظام الآلي المطوَّر من قبل شركة Anthropic، نسبة 13%.
تقول شركات الذكاء الاصطناعي إن جمع البيانات بهذه الطريقة ضروري للحفاظ على تحديث نماذجها. لكن صنّاع المحتوى يرون الأمر بشكل مختلف، إذ يعتبرون هذه البوتات أدوات لانتهاك حقوق النشر على نطاق واسع. ففي وقت سابق من هذا العام، رفعت شركتا ديزني ويونيفرسال دعوى قضائية ضد شركة Midjourney للذكاء الاصطناعي، بحجة أن مولّد الصور الخاص بها ينسخ شخصيات من سلاسل شهيرة مثل Star Wars وDespicable Me.
ولأن معظم صنّاع المحتوى لا يملكون المال الكافي لرفع الدعاوى القضائية، فإن بعضهم يلجأ إلى أساليب أكثر راديكالية للدفاع عن نفسه. إذ يستخدمون أدوات إلكترونية تجعل من الصعب على بوتات الذكاء الاصطناعي الوصول إلى محتواهم — أو تتلاعب بالمحتوى بحيث تُضلّل هذه البوتات لقراءة المعلومات بشكل خاطئ، كأن تبدأ خوارزميات الذكاء الاصطناعي في الخلط بين صور السيارات وصور الأبقار مثلًا. لكن رغم أن هذا الأسلوب، المعروف باسم تسميم الذكاء الاصطناعي، يمكن أن يساعد صنّاع المحتوى على حماية أعمالهم، فإنه قد يجعل الإنترنت مكانًا أكثر خطورة دون قصد.
انتهاك حقوق النشر
على مرّ القرون، سعى المقلّدون لتحقيق أرباح سريعة عبر تقليد أعمال الفنانين، وهو أحد الأسباب التي أدت إلى وجود قوانين الملكية الفكرية وحقوق النشر. لكن ظهور مولدات الصور بالذكاء الاصطناعي في السنوات الأخيرة، مثل Midjourney وDALL-E التابعة لـ OpenAI، جعل المشكلة أكثر تفاقمًا.
إحدى القضايا الجوهرية في الولايات المتحدة هي ما يُعرف بـ مبدأ الاستخدام العادل (Fair Use Doctrine). هذا المبدأ يسمح باستخدام عينات من المواد المحمية بحقوق النشر في ظل ظروف معينة، دون الحاجة للحصول على إذن من صاحب الحق. وهو قانون مرن بطبيعته، لكنه يقوم على فكرة أساسية: يمكنك استخدام عمل أصلي لإنشاء عمل جديد، بشرط أن يكون قد تغير بشكل كافٍ وألا يؤثر سلبًا على السوق الخاص بالعمل الأصلي.
يرى العديد من الفنانين والموسيقيين والناشطين أن أدوات الذكاء الاصطناعي تُطمس الخط الفاصل بين الاستخدام العادل وانتهاك حقوق النشر، مما يضر بصنّاع المحتوى. فمثلًا، قد لا يكون هناك ضرر كبير إذا قام شخص برسم صورة لشخصية ميكي ماوس في عالم مسلسل "عائلة سيمبسون" لأغراض ترفيهية شخصية. لكن مع الذكاء الاصطناعي، أصبح بإمكان أي شخص إنتاج أعداد كبيرة من مثل هذه الصور بسرعة، وبطريقة تُثير الشك حول مدى "التحويل الإبداعي" الذي أُجري عليها. وبمجرد إنتاج هذه الصور، يمكن بسهولة تصميم قمصان وبيعها، وهو ما يحوّل الاستخدام من شخصي إلى تجاري، وبالتالي ينتهك مبدأ الاستخدام العادل.
ولحماية مصالحهم التجارية، بدأ بعض صنّاع المحتوى في الولايات المتحدة باتخاذ إجراءات قانونية. فقضية ديزني ويونيفرسال ضد Midjourney، المرفوعة في يونيو، هي مجرد مثال حديث. وهناك أيضًا المعركة القضائية المستمرة بين صحيفة نيويورك تايمز وشركة OpenAI بشأن الاستخدام غير المصرح به لمحتوى الصحيفة.
شركات الذكاء الاصطناعي تنفي بشدة ارتكاب أي مخالفات، وتصر على أن جمع البيانات مسموح به بموجب مبدأ الاستخدام العادل. ففي رسالة مفتوحة إلى مكتب البيت الأبيض للعلوم وسياسة التكنولوجيا في مارس، حذر كريس لاهين، المسؤول العالمي للشؤون العامة في OpenAI، من أن القوانين الصارمة لحقوق النشر في دول أخرى — حيث جرت محاولات لتوفير حماية أقوى لصنّاع المحتوى — "تكبح الابتكار والاستثمار". كما قالت الشركة سابقًا إنه سيكون من "المستحيل" تطوير نماذج ذكاء اصطناعي تلبي احتياجات الناس دون استخدام أعمال محمية بحقوق النشر. وتتفق جوجل مع هذا الرأي، إذ ذكرت في رسالة مفتوحة في مارس أن "ثلاثة مجالات قانونية يمكن أن تعيق الوصول المناسب إلى البيانات الضرورية لتدريب النماذج الرائدة: حقوق النشر، الخصوصية، وبراءات الاختراع".
لكن يبدو أن الرأي العام حاليًا يميل لصالح الناشطين. فعندما قام موقع IPWatchdog بتحليل الردود العامة على استفسار مكتب حقوق النشر الأمريكي حول الذكاء الاصطناعي، وجد أن 91% من التعليقات تحمل مشاعر سلبية تجاه الذكاء الاصطناعي.
وما قد يزيد من تراجع تعاطف الجمهور مع شركات الذكاء الاصطناعي هو الشكوك حول أن بوتاتها ترسل كمًا هائلًا من الزيارات لبعض المواقع، لدرجة أنها ترهق مواردها وقد تتسبب أحيانًا في توقفها عن العمل — في حين لا يملك صنّاع المحتوى القدرة على إيقافها. صحيح أن هناك تقنيات يمكن لصنّاع المحتوى استخدامها لمنع البوتات من تصفح مواقعهم، مثل إعادة ضبط ملف صغير في بنية الموقع لمنع الزحف، لكن هناك دلائل على أن بعض البوتات تتجاهل هذه التعليمات وتستمر في التصفح على أي حال.
إحدى القضايا الجوهرية في الولايات المتحدة هي ما يُعرف بـ مبدأ الاستخدام العادل (Fair Use Doctrine). هذا المبدأ يسمح باستخدام عينات من المواد المحمية بحقوق النشر في ظل ظروف معينة، دون الحاجة للحصول على إذن من صاحب الحق. وهو قانون مرن بطبيعته، لكنه يقوم على فكرة أساسية: يمكنك استخدام عمل أصلي لإنشاء عمل جديد، بشرط أن يكون قد تغير بشكل كافٍ وألا يؤثر سلبًا على السوق الخاص بالعمل الأصلي.
يرى العديد من الفنانين والموسيقيين والناشطين أن أدوات الذكاء الاصطناعي تُطمس الخط الفاصل بين الاستخدام العادل وانتهاك حقوق النشر، مما يضر بصنّاع المحتوى. فمثلًا، قد لا يكون هناك ضرر كبير إذا قام شخص برسم صورة لشخصية ميكي ماوس في عالم مسلسل "عائلة سيمبسون" لأغراض ترفيهية شخصية. لكن مع الذكاء الاصطناعي، أصبح بإمكان أي شخص إنتاج أعداد كبيرة من مثل هذه الصور بسرعة، وبطريقة تُثير الشك حول مدى "التحويل الإبداعي" الذي أُجري عليها. وبمجرد إنتاج هذه الصور، يمكن بسهولة تصميم قمصان وبيعها، وهو ما يحوّل الاستخدام من شخصي إلى تجاري، وبالتالي ينتهك مبدأ الاستخدام العادل.
ولحماية مصالحهم التجارية، بدأ بعض صنّاع المحتوى في الولايات المتحدة باتخاذ إجراءات قانونية. فقضية ديزني ويونيفرسال ضد Midjourney، المرفوعة في يونيو، هي مجرد مثال حديث. وهناك أيضًا المعركة القضائية المستمرة بين صحيفة نيويورك تايمز وشركة OpenAI بشأن الاستخدام غير المصرح به لمحتوى الصحيفة.
شركات الذكاء الاصطناعي تنفي بشدة ارتكاب أي مخالفات، وتصر على أن جمع البيانات مسموح به بموجب مبدأ الاستخدام العادل. ففي رسالة مفتوحة إلى مكتب البيت الأبيض للعلوم وسياسة التكنولوجيا في مارس، حذر كريس لاهين، المسؤول العالمي للشؤون العامة في OpenAI، من أن القوانين الصارمة لحقوق النشر في دول أخرى — حيث جرت محاولات لتوفير حماية أقوى لصنّاع المحتوى — "تكبح الابتكار والاستثمار". كما قالت الشركة سابقًا إنه سيكون من "المستحيل" تطوير نماذج ذكاء اصطناعي تلبي احتياجات الناس دون استخدام أعمال محمية بحقوق النشر. وتتفق جوجل مع هذا الرأي، إذ ذكرت في رسالة مفتوحة في مارس أن "ثلاثة مجالات قانونية يمكن أن تعيق الوصول المناسب إلى البيانات الضرورية لتدريب النماذج الرائدة: حقوق النشر، الخصوصية، وبراءات الاختراع".
لكن يبدو أن الرأي العام حاليًا يميل لصالح الناشطين. فعندما قام موقع IPWatchdog بتحليل الردود العامة على استفسار مكتب حقوق النشر الأمريكي حول الذكاء الاصطناعي، وجد أن 91% من التعليقات تحمل مشاعر سلبية تجاه الذكاء الاصطناعي.
وما قد يزيد من تراجع تعاطف الجمهور مع شركات الذكاء الاصطناعي هو الشكوك حول أن بوتاتها ترسل كمًا هائلًا من الزيارات لبعض المواقع، لدرجة أنها ترهق مواردها وقد تتسبب أحيانًا في توقفها عن العمل — في حين لا يملك صنّاع المحتوى القدرة على إيقافها. صحيح أن هناك تقنيات يمكن لصنّاع المحتوى استخدامها لمنع البوتات من تصفح مواقعهم، مثل إعادة ضبط ملف صغير في بنية الموقع لمنع الزحف، لكن هناك دلائل على أن بعض البوتات تتجاهل هذه التعليمات وتستمر في التصفح على أي حال.
تسميم بيانات الذكاء الاصطناعي
ليس من المستغرب إذن أن تُطرح أدوات جديدة لمساعدة صنّاع المحتوى على الحصول على حماية أقوى ضد بوتات الذكاء الاصطناعي. إحدى هذه الأدوات أطلقتها هذا العام شركة Cloudflare، وهي شركة بنية تحتية للإنترنت توفّر لمستخدميها الحماية من هجمات حجب الخدمة الموزعة (DDoS) التي يغرق فيها المهاجم خادم الويب بكم هائل من الطلبات، ما يؤدي إلى تعطيل الموقع بالكامل. ولمواجهة بوتات الذكاء الاصطناعي التي قد تشكّل خطرًا مشابهًا، تعتمد Cloudflare أسلوب "محاربة النار بالنار": إذ تُنتج متاهة من الصفحات المولدة بالذكاء الاصطناعي مليئة بمحتوى عبثي، بحيث تستهلك هذه البوتات وقتها وطاقتها في معالجة هذه الصفحات بدل الوصول إلى المعلومات الحقيقية التي تبحث عنها.
الأداة، التي تُعرف باسم AI Labyrinth، صُمّمت لاحتجاز 50 مليار طلب يوميًا من زواحف الذكاء الاصطناعي التي تقول Cloudflare إنها ترصدها على المواقع ضمن شبكتها. ووفقًا للشركة، ينبغي لهذه الأداة أن "تبطيء وتربك وتهدر موارد زواحف الذكاء الاصطناعي وغيرها من البوتات التي لا تحترم تعليمات ‘عدم الزحف’". ومنذ ذلك الحين، طرحت Cloudflare أداة أخرى تطلب من شركات الذكاء الاصطناعي الدفع مقابل الوصول إلى المواقع، وإلا فسيُحظر عليها تصفح المحتوى.
بديل آخر هو السماح لبوتات الذكاء الاصطناعي بالوصول إلى المحتوى على الإنترنت، لكن مع "تسميمه" بشكل دقيق بحيث تصبح البيانات أقل فائدة لغرض البوت. هنا يبرز دور أداتي Glaze وNightshade، المطورتين في جامعة شيكاغو، واللتين أصبحتا محورًا لهذا النوع من المقاومة. كلتاهما مجانية التحميل من موقع الجامعة ويمكن تشغيلهما على جهاز المستخدم.
تم إطلاق Glaze عام 2022 كأداة دفاعية، حيث تُجري تعديلات غير مرئية على مستوى البكسل، تُعرف باسم "أغطية الأسلوب" (style cloaks)، على أعمال الفنانين. هذه التغييرات، غير الملحوظة للعين البشرية، تدفع نماذج الذكاء الاصطناعي إلى تفسير أسلوب العمل الفني بشكل خاطئ — فمثلًا، قد تُفسَّر لوحة بالألوان المائية على أنها لوحة زيتية. أما Nightshade، الذي صدر في 2023، فهو أداة هجومية أكثر، تقوم بتسميم بيانات الصور بطريقة خفية بحيث تدفع نموذج الذكاء الاصطناعي إلى الربط بين مفاهيم خاطئة، مثل ربط كلمة "قطة" بصور الكلاب. وقد تم تحميل هاتين الأداتين أكثر من 10 ملايين مرة.
يقول بن جاو من جامعة شيكاغو، الباحث الرئيسي وراء Glaze وNightshade: "هذه شركات قيمتها السوقية تريليونات الدولارات، وهي حرفيًا أكبر الشركات في العالم، تأخذ بالقوة ما تريد". ويرى أن استخدام هذه الأدوات يمنح الفنانين قدرًا ولو ضئيلاً من السيطرة على كيفية استخدام أعمالهم.
يقول جاكوب هوفمان-أندروز من مؤسسة الحدود الإلكترونية (EFF) — وهي منظمة غير ربحية أمريكية للدفاع عن الحقوق الرقمية — إن Glaze وNightshade "أدوات مثيرة للاهتمام وتُظهر أسلوبًا ذكيًا في العمل لا يعتمد على تغيير القوانين، التي قد تستغرق وقتًا طويلًا وربما لا تكون في صالح الفنانين".
تشير إليونورا روساتي من جامعة ستوكهولم إلى أن فكرة "إفساد المحتوى" لردع المقلدين ليست جديدة. "في الماضي، عندما كان هناك استخدام غير مرخّص لقواعد البيانات — من أدلة الهواتف إلى قوائم براءات الاختراع — كان يُنصح بإدخال بعض الأخطاء للمساعدة في إثبات الانتهاك"، على حد قولها. فمثلًا، قد يضع رسام الخرائط عمدًا أسماء أماكن وهمية على خرائطه، وإذا ظهرت هذه الأسماء لاحقًا في خريطة منافس، فإنها تكون دليلًا واضحًا على السرقة. وتستمر هذه الممارسات حتى اليوم، كما في حالة موقع كلمات الأغاني Genius الذي ادعى أنه أدرج أنواعًا مختلفة من علامات الاقتباس في نصوصه ليثبت أن جوجل استخدمت محتواه دون إذن — وهو ما تنفيه جوجل، وقد تم رفض الدعوى التي رفعها Genius ضدها.
حتى مصطلح "تخريب" يعتبره بعضهم محل نقاش. يقول هوفمان-أندروز: "لا أرى أن الأمر تخريب بالضرورة… هذه صور الفنان نفسه، وهو يجري تعديلات على عمله. يحق له تمامًا أن يفعل ما يشاء ببياناته".
ولا يُعرف إلى أي مدى تتخذ شركات الذكاء الاصطناعي إجراءات مضادة لمكافحة هذا التسميم، سواء بتجاهل المحتوى المسموم أو بمحاولة إزالته من بياناتها. لكن تجارب جاو لاختبار قدرة نظامه على مقاومة محاولات الاختراق أظهرت أن Glaze ظل فعالًا بنسبة 85% ضد جميع التدابير المضادة التي استطاع تخيلها، مما يشير إلى أن شركات الذكاء الاصطناعي قد تجد أن التعامل مع البيانات المسمومة أكثر إزعاجًا من تجاهلها.
الأداة، التي تُعرف باسم AI Labyrinth، صُمّمت لاحتجاز 50 مليار طلب يوميًا من زواحف الذكاء الاصطناعي التي تقول Cloudflare إنها ترصدها على المواقع ضمن شبكتها. ووفقًا للشركة، ينبغي لهذه الأداة أن "تبطيء وتربك وتهدر موارد زواحف الذكاء الاصطناعي وغيرها من البوتات التي لا تحترم تعليمات ‘عدم الزحف’". ومنذ ذلك الحين، طرحت Cloudflare أداة أخرى تطلب من شركات الذكاء الاصطناعي الدفع مقابل الوصول إلى المواقع، وإلا فسيُحظر عليها تصفح المحتوى.
بديل آخر هو السماح لبوتات الذكاء الاصطناعي بالوصول إلى المحتوى على الإنترنت، لكن مع "تسميمه" بشكل دقيق بحيث تصبح البيانات أقل فائدة لغرض البوت. هنا يبرز دور أداتي Glaze وNightshade، المطورتين في جامعة شيكاغو، واللتين أصبحتا محورًا لهذا النوع من المقاومة. كلتاهما مجانية التحميل من موقع الجامعة ويمكن تشغيلهما على جهاز المستخدم.
تم إطلاق Glaze عام 2022 كأداة دفاعية، حيث تُجري تعديلات غير مرئية على مستوى البكسل، تُعرف باسم "أغطية الأسلوب" (style cloaks)، على أعمال الفنانين. هذه التغييرات، غير الملحوظة للعين البشرية، تدفع نماذج الذكاء الاصطناعي إلى تفسير أسلوب العمل الفني بشكل خاطئ — فمثلًا، قد تُفسَّر لوحة بالألوان المائية على أنها لوحة زيتية. أما Nightshade، الذي صدر في 2023، فهو أداة هجومية أكثر، تقوم بتسميم بيانات الصور بطريقة خفية بحيث تدفع نموذج الذكاء الاصطناعي إلى الربط بين مفاهيم خاطئة، مثل ربط كلمة "قطة" بصور الكلاب. وقد تم تحميل هاتين الأداتين أكثر من 10 ملايين مرة.
يقول بن جاو من جامعة شيكاغو، الباحث الرئيسي وراء Glaze وNightshade: "هذه شركات قيمتها السوقية تريليونات الدولارات، وهي حرفيًا أكبر الشركات في العالم، تأخذ بالقوة ما تريد". ويرى أن استخدام هذه الأدوات يمنح الفنانين قدرًا ولو ضئيلاً من السيطرة على كيفية استخدام أعمالهم.
يقول جاكوب هوفمان-أندروز من مؤسسة الحدود الإلكترونية (EFF) — وهي منظمة غير ربحية أمريكية للدفاع عن الحقوق الرقمية — إن Glaze وNightshade "أدوات مثيرة للاهتمام وتُظهر أسلوبًا ذكيًا في العمل لا يعتمد على تغيير القوانين، التي قد تستغرق وقتًا طويلًا وربما لا تكون في صالح الفنانين".
تشير إليونورا روساتي من جامعة ستوكهولم إلى أن فكرة "إفساد المحتوى" لردع المقلدين ليست جديدة. "في الماضي، عندما كان هناك استخدام غير مرخّص لقواعد البيانات — من أدلة الهواتف إلى قوائم براءات الاختراع — كان يُنصح بإدخال بعض الأخطاء للمساعدة في إثبات الانتهاك"، على حد قولها. فمثلًا، قد يضع رسام الخرائط عمدًا أسماء أماكن وهمية على خرائطه، وإذا ظهرت هذه الأسماء لاحقًا في خريطة منافس، فإنها تكون دليلًا واضحًا على السرقة. وتستمر هذه الممارسات حتى اليوم، كما في حالة موقع كلمات الأغاني Genius الذي ادعى أنه أدرج أنواعًا مختلفة من علامات الاقتباس في نصوصه ليثبت أن جوجل استخدمت محتواه دون إذن — وهو ما تنفيه جوجل، وقد تم رفض الدعوى التي رفعها Genius ضدها.
حتى مصطلح "تخريب" يعتبره بعضهم محل نقاش. يقول هوفمان-أندروز: "لا أرى أن الأمر تخريب بالضرورة… هذه صور الفنان نفسه، وهو يجري تعديلات على عمله. يحق له تمامًا أن يفعل ما يشاء ببياناته".
ولا يُعرف إلى أي مدى تتخذ شركات الذكاء الاصطناعي إجراءات مضادة لمكافحة هذا التسميم، سواء بتجاهل المحتوى المسموم أو بمحاولة إزالته من بياناتها. لكن تجارب جاو لاختبار قدرة نظامه على مقاومة محاولات الاختراق أظهرت أن Glaze ظل فعالًا بنسبة 85% ضد جميع التدابير المضادة التي استطاع تخيلها، مما يشير إلى أن شركات الذكاء الاصطناعي قد تجد أن التعامل مع البيانات المسمومة أكثر إزعاجًا من تجاهلها.
نشر الأخبار المضللة
لكن الأمر لا يقتصر على الفنانين الذين يسعون لحماية محتواهم، فبعض الدول قد تستخدم مبادئ مشابهة لتسميم مصادر الذكاء الاصطناعي بهدف دفع روايات مضللة. على سبيل المثال، ذكر مركز الأبحاث الأمريكي Atlantic Council في وقت سابق من هذا العام أن شبكة Pravda الإخبارية الروسية — والتي يعني اسمها "الحقيقة" بالروسية — قد استخدمت أسلوب التسميم لخداع بوتات الذكاء الاصطناعي ودفعها إلى نشر أخبار كاذبة.
ويقول المركز إن طريقة برافدا تشبه إلى حد ما أسلوب أداة AI Labyrinth التابعة لـ Cloudflare، من خلال نشر ملايين الصفحات على الويب. لكن في هذه الحالة، يزعم Atlantic Council أن الصفحات مصممة لتبدو كأنها مقالات إخبارية حقيقية، وتُستخدم للترويج لرواية الكرملين حول حرب روسيا في أوكرانيا. ويضيف أن الحجم الهائل لهذه القصص قد يؤدي إلى أن تُعطي زواحف الذكاء الاصطناعي وزنًا أكبر لهذه الروايات عند الرد على المستخدمين. وقد وجدت شركة NewsGuard الأمريكية، المتخصصة في تتبع أنشطة برافدا، أن 10 من كبرى روبوتات المحادثة بالذكاء الاصطناعي قدّمت نصوصًا تتماشى مع وجهة نظر برافدا في ثلث الحالات التي تم تحليلها.
ويكشف هذا النجاح النسبي في تغيير مجرى النقاشات عن المشكلة الجوهرية في كل ما يتعلق بالذكاء الاصطناعي: أي خدعة تقنية يستخدمها طرف حسن النية لغرض إيجابي، يمكن أن يستولي عليها طرف سيئ النية لتحقيق أهداف خبيثة.
مع ذلك، يرى بن جاو أن هناك حلًا لهذه المشكلات، رغم أنه قد لا يكون من النوع الذي ترغب شركات الذكاء الاصطناعي في اعتماده. فبدلًا من جمع أي بيانات متاحة على الإنترنت بشكل عشوائي، يمكن لتلك الشركات أن تدخل في اتفاقيات رسمية مع مزوّدي المحتوى الموثوقين، لضمان أن تكون منتجاتها مُدرّبة على بيانات موثوقة فقط. لكن هذا النهج مكلف، إذ إن اتفاقيات الترخيص قد تكون باهظة الثمن. يقول جاو: "هذه الشركات غير مستعدة لترخيص أعمال الفنانين… في جوهر كل هذا، المسألة تتعلق بالمال".
ويقول المركز إن طريقة برافدا تشبه إلى حد ما أسلوب أداة AI Labyrinth التابعة لـ Cloudflare، من خلال نشر ملايين الصفحات على الويب. لكن في هذه الحالة، يزعم Atlantic Council أن الصفحات مصممة لتبدو كأنها مقالات إخبارية حقيقية، وتُستخدم للترويج لرواية الكرملين حول حرب روسيا في أوكرانيا. ويضيف أن الحجم الهائل لهذه القصص قد يؤدي إلى أن تُعطي زواحف الذكاء الاصطناعي وزنًا أكبر لهذه الروايات عند الرد على المستخدمين. وقد وجدت شركة NewsGuard الأمريكية، المتخصصة في تتبع أنشطة برافدا، أن 10 من كبرى روبوتات المحادثة بالذكاء الاصطناعي قدّمت نصوصًا تتماشى مع وجهة نظر برافدا في ثلث الحالات التي تم تحليلها.
ويكشف هذا النجاح النسبي في تغيير مجرى النقاشات عن المشكلة الجوهرية في كل ما يتعلق بالذكاء الاصطناعي: أي خدعة تقنية يستخدمها طرف حسن النية لغرض إيجابي، يمكن أن يستولي عليها طرف سيئ النية لتحقيق أهداف خبيثة.
مع ذلك، يرى بن جاو أن هناك حلًا لهذه المشكلات، رغم أنه قد لا يكون من النوع الذي ترغب شركات الذكاء الاصطناعي في اعتماده. فبدلًا من جمع أي بيانات متاحة على الإنترنت بشكل عشوائي، يمكن لتلك الشركات أن تدخل في اتفاقيات رسمية مع مزوّدي المحتوى الموثوقين، لضمان أن تكون منتجاتها مُدرّبة على بيانات موثوقة فقط. لكن هذا النهج مكلف، إذ إن اتفاقيات الترخيص قد تكون باهظة الثمن. يقول جاو: "هذه الشركات غير مستعدة لترخيص أعمال الفنانين… في جوهر كل هذا، المسألة تتعلق بالمال".