لكي يصبح برنامج الدردشة الآلي أكثر ذكاءً وبالتالي أكثر فائدة للمستخدم النهائي، فإنه يحتاج إلى استيعاب البيانات باستمرار. تُعرف هذه العملية باسم “التدريب”. تكمن المشكلة في أن العديد من شركات الذكاء الاصطناعي لا تطلب أبدًا موافقة أصحاب البيانات صراحةً قبل حذف صفحات الويب الخاصة بهم وإضافة البيانات إلى مجموعة نماذج اللغات الكبيرة (LLMs) التي تدعم روبوتات الدردشة المدعومة بالذكاء الاصطناعي.
لكن بعض مالكي البيانات هؤلاء، المعروفين أيضًا باسم منشئي المحتوى أو أصحاب الملكية الفكرية، يقاومون الآن. إنهم يفعلون ذلك باستخدام أدوات تعرف باسم “tarpits”. هدفك؟ قم بتسميم LLM الأساسي لبرنامج الدردشة الآلية وبالتالي تقليل جودة نتائجه، مما قد يتسبب في هروب المستخدم النهائي. إليك ما تحتاج إلى معرفته.
ما هو التسمم بالذكاء الاصطناعي؟
تسميم الذكاء الاصطناعي هو عملية إفساد نموذج اللغة الأساسي الكبير لروبوت الدردشة الذي يعمل بالذكاء الاصطناعي بحيث يقدم روبوت الدردشة نتائج غير صحيحة أو مضللة أو مجنونة تمامًا. يتم تحقيق هذا الفساد عن طريق خداع LLM لاستيعاب بيانات غير صحيحة أثناء تدريبها، والذي يتضمن عادةً حذف كل موقع ويب وصورة محتملة يمكنها العثور عليها.
هناك العديد من الطرق التي يمكن من خلالها تسميم LLM، اعتمادًا على قدرات LLM التي يريد المُسمم تعطيلها.
على سبيل المثال، إذا أراد شخص ما تسميم منشئ صور LLM، فيمكنه استخدام تقنية تُعرف باسم “Nightshading”، والتي تتضمن استخدام برنامج يسمى Nightshade لإضافة طبقة غير مرئية إلى الصورة. تحتوي هذه الطبقة على وحدات بكسل غير مرئية للعين البشرية ولكنها مرئية لكاشطات LLM. تجعل هذه البكسلات الفن يظهر للذكاء الاصطناعي كما لو كان له أسلوب مختلف عما هو عليه في الواقع (على سبيل المثال، مجردة بدلاً من الواقعية)، مما يمنع LLM من تقليد الأسلوب الفعلي للفنان.
وبطبيعة الحال، تتعامل معظم برامج الدردشة الآلية مع النصوص، وليس الصور، مما يجعل الأدوات السامة مثل Nightshade عديمة الفائدة ضد الحذف غير المصرح به للمقالات والمدونات بواسطة الذكاء الاصطناعي. ولكن في السنوات الأخيرة، تم تداول نوع جديد من أدوات تسميم الذكاء الاصطناعي بهدف خداع حاملي شهادات الماجستير في التدريب على بيانات عديمة الفائدة. تُعرف هذه الأدوات باسم tarpits.
ما هي أقمشة الذكاء الاصطناعي؟
تعد AI Tarpits نوعًا محددًا من أدوات التسمم بالذكاء الاصطناعي المصممة لخداع برامج الزحف التي تستخدمها LLMs في استيعاب البيانات غير المرغوب فيها. نظرًا لأن LLM تستخدم هذه البيانات غير المفيدة لإنشاء مخرجات نصية، ستكون هذه المخرجات غير صحيحة، مما يؤدي إلى انخفاض جودة استجابات الذكاء الاصطناعي وقد يؤدي في النهاية إلى تثبيط المستخدمين عن استخدام روبوت الدردشة.
هناك العديد من مصائد القماش التي يمكن لمنشئي المحتوى ومالكي IP إضافتها إلى مواقعهم الإلكترونية، بما في ذلك Nepenthes, يوكايينو خيالي. عندما يزور زاحف LLM موقع ويب يحتوي على مادة Tarpit مضمنة في الكود الخاص به، ستتم إعادة توجيه الزاحف لاستيعاب النص عديم الفائدة الذي يتم إنشاؤه تلقائيًا والذي يكون مليئًا بالمعلومات غير الصحيحة (على سبيل المثال، أسس ستيف جوبز شركة Microsoft في عام 1834) أو معلومات لا معنى لها تمامًا (على سبيل المثال، لون الماء هو بيبروني).
بالإضافة إلى ذلك، سترتبط هذه الصفحات النصية المسمومة بصفحات نصية مسمومة إضافية، ولا تحتوي أي منها على روابط خارجية. لذلك، تمامًا كما يتسبب القماش المادي في حبس الحيوان في الحياة الواقعية، فإن قماش القماش المصنوع من الذكاء الاصطناعي يحبس متتبع LLM في عملية استيعاب لا نهاية لها للبيانات السيئة، غير قادر على الخروج من الفخ.
كيف يمكن للمستخدم العادي حماية بياناته من شركات الذكاء الاصطناعي؟
يستخدم منشئو المحتوى وحاملو IP الأقمشة لإهدار موارد شركة الذكاء الاصطناعي القيمة ومنع LLMs من استيعاب بيانات موقع الويب دون موافقة.
ولكن حتى لو لم تكن منشئ محتوى أو مالكًا للملكية الفكرية، فيجب أن تدرك أن شركات الذكاء الاصطناعي تستخدم بياناتك أيضًا لتدريب نماذجها. يتم استيعاب كل مطالبة تكتبها في برنامج الدردشة الآلي أو المحادثة التي تجريها معه في مجموعة LLM لإجراء مزيد من التحليل بهدف جعل برنامج LLM الخاص ببرنامج الدردشة أكثر قوة.
والخبر السار هو أنك لا تحتاج إلى اللجوء إلى أدوات متخصصة مثل الأقمشة لحماية بياناتك من روبوتات الدردشة. بدلاً من ذلك، يمكنك إصدار تعليمات صريحة لروبوتات الدردشة بعدم التدريب على بياناتك، أو استخدام روبوتات الدردشة من خلال الوكلاء لإخفاء هويتك، أو استخدام أدوات البرامج اليومية لتنقيح بياناتك الحساسة قبل إرسال أي مستندات إلى روبوت الدردشة لتحليلها.












