مايكروسوفت تكشف عن نظام التحقق من محتوى الذكاء الاصطناعي لمكافحة التزييف العميق

جديديمكنك الاستماع إلى مقالات فوكس نيوز الآن!

التمرير الخاص بك وسائل التواصل الاجتماعي إطعام لمدة خمس دقائق. من المحتمل أن ترى شيئًا يبدو حقيقيًا ولكنك تشعر ببعض الراحة.

ربما تكون صورة احتجاج منتشرة على نطاق واسع ويبدو أنها تتغير. ربما يكون مقطع فيديو رائعًا يدفع بالسرد السياسي. أو ربما يكون مقطعًا صوتيًا للذكاء الاصطناعي ينتشر قبل أن يتمكن أي شخص من طرح سؤال.

أصبح الاحتيال المدعوم بالذكاء الاصطناعي منتشرًا الآن في الحياة اليومية. وتقول مايكروسوفت إن لديها مخططًا تقنيًا للمساعدة في التحقق من مصدر المحتوى عبر الإنترنت وما إذا كان قد تم تغييره.

قم بالتسجيل للحصول على تقرير CyberGuy المجاني الخاص بي
احصل على أفضل النصائح التقنية والتنبيهات الأمنية العاجلة والصفقات الحصرية التي يتم تسليمها مباشرة إلى صندوق الوارد الخاص بك. بالإضافة إلى ذلك، يمكنك الوصول الفوري إلى Ultimate Scam Survival Guide – مجانًا عند انضمامك إلي CYBERGUY.COM النشرة الإخبارية

سيجمع اقتراح Microsoft بين بصمات الأصابع الرقمية والبيانات الوصفية للمساعدة في تتبع مصدر المحتوى عبر الإنترنت. (يورفين / غيتي إيماجز)

لماذا يبدو المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي أكثر تصديقًا اليوم

يمكن لأدوات الذكاء الاصطناعي الآن إنشاء صور واقعية للغاية، واستنساخ الأصوات، وإنشاء صور مزيفة تفاعلية تستجيب في الوقت الفعلي. ما كان يتطلب في السابق استوديوًا أو وكالة استخبارات يتطلب الآن نافذة متصفح. وقد أدى هذا التحول إلى تغيير المخاطر.

لم يعد الأمر يتعلق بالبقع المزيفة الواضحة. يتعلق الأمر بالتنقل في عالم رقمي حيث يتخلل المحتوى الذي تم التلاعب به التمرير اليومي. حتى عندما يعرف المشاهدون أن شيئًا ما تم إنشاؤه بواسطة الذكاء الاصطناعي، فإنهم غالبًا ما يتفاعلون معه. التصنيفات وحدها لا تمنع الثقة أو المشاركة تلقائيًا. لذا تقترح مايكروسوفت شيئًا أكثر تنظيمًا.

كيف يعمل نظام التحقق من محتوى الذكاء الاصطناعي من Microsoft

لفهم النهج الذي تتبعه ميكروسوفت، تخيل عملية التحقق من صحة لوحة مشهورة. سيقوم المالك بتوثيق تاريخه بعناية وتسجيل كل تغيير في الحيازة. ويمكن للخبراء إضافة علامة مائية يمكن للآلات التعرف عليها، ولكن لا يمكن للزوار رؤيتها. يمكنهم أيضًا إنشاء توقيع رياضي بناءً على ضربات الفرشاة.

الآن تريد Microsoft تطبيق نفس الانضباط على المحتوى الرقمي. وقام فريق البحث التابع للشركة بتقييم 60 مجموعة مختلفة من الأدوات، بما في ذلك تتبع البيانات الوصفية والعلامات المائية غير المرئية والتوقيعات المشفرة. قام الباحثون أيضًا باختبار إجهاد تلك الأنظمة في مقابل سيناريوهات العالم الحقيقي مثل البيانات الوصفية المجردة، أو التغييرات الدقيقة في البكسل أو التلاعب المتعمد.

فبدلاً من تحديد ما هو صحيح، يركز النظام على المصادر والتغيرات. لقد تم تصميمه لإظهار مكان إنشاء المحتوى وما إذا كان شخص ما قد قام بتغييره على طول الطريق.

ما يمكن التحقق من محتوى الذكاء الاصطناعي وما لا يمكن إثباته

قبل الاعتماد على هذه الأدوات، عليك أن تفهم حدودها. يمكن لأنظمة التحقق الإبلاغ عما إذا كان شخص ما قد قام بتغيير المحتوى، لكنها لا تستطيع الحكم على الدقة أو تفسير السياق. لا يمكنهم تحديد المعنى. على سبيل المثال، قد يشير التصنيف إلى أن الفيديو يحتوي على محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي. لن يوضح الوصف العام ما إذا كان الأمر مربكًا أم لا.

ومع ذلك، يعتقد الخبراء أن التبني على نطاق واسع يمكن أن يقلل من الاحتيال على نطاق واسع. وربما لا تزال الجهات الفاعلة ذات المهارات العالية وبعض الحكومات تجد طرقًا لحماية نفسها. ومع ذلك، يمكن لمعايير التحقق المتسقة أن تقلل جزءًا كبيرًا من المشاركات التي تم التلاعب بها. وبمرور الوقت، يمكن لهذا التغيير أن يعيد تشكيل بيئة الإنترنت بطرق قابلة للقياس.

لماذا تخلق تسميات الذكاء الاصطناعي معضلة تجارية للمنصات الاجتماعية

هذا هو المكان الذي تصبح فيه الإثارة حقيقية. يعتمد على مشاركة المنصة. غالبًا ما يؤدي الارتباط إلى الغضب أو الصدمة. ويمكنه تشغيل كل من المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. إذا أدى الذكاء الاصطناعي النظيف إلى تقليل النقرات على التصنيف أو المشاركات أو أوقات المشاهدة، فستواجه الشركات خيارًا صعبًا. وقد تتعارض الشفافية مع حوافز الأعمال.

تنشر النوافذ المنبثقة الخاطئة البرامج الضارة بسرعة

يمكن أن تشير العلامات المائية والتوقيعات المشفرة غير المرئية إلى حدوث تغيير في الصورة أو الفيديو. (عبر تشونا كاسينجر / بلومبرج جيتي إيماجيس)

تُظهر عمليات تدقيق الأنظمة الأساسية الرئيسية بالفعل تصنيفات غير متسقة للمشاركات التي ينشئها الذكاء الاصطناعي. خذ بعض العلامات. يذهب الكثير دون الكشف.

والآن، تمضي اللوائح التنظيمية الأمريكية قدمًا، إذ يتطلب قانون شفافية الذكاء الاصطناعي في كاليفورنيا الكشف الواضح عن المحتوى الناتج عن الذكاء الاصطناعي، وتدرس ولايات أخرى قواعد مماثلة. ويريد المشرعون حماية أقوى.

ومع ذلك، التنفيذ مهم. إذا طبقت الشركات أدوات التحقق على عجل أو بشكل غير متسق، فقد تتآكل ثقة الجمهور بسرعة أكبر.

خطر تسميات الذكاء الاصطناعي غير الصحيحة والأعلام الكاذبة

ويحذر الباحثون أيضًا من هجمات التكنولوجيا الاجتماعية. تخيل أن شخصًا ما يلتقط صورة حقيقية لحدث سياسي ساخن ويغير جزءًا صغيرًا منه. يقوم نظام الكشف الضعيف بوضع علامة على الصورة بأكملها على أنها تم التلاعب بها بواسطة الذكاء الاصطناعي.

الآن، تعتبر الصورة الفعلية مشبوهة. يمكن للجهات الفاعلة السيئة استغلال الأنظمة غير الكاملة لتشويه سمعة الأدلة الواقعية. ولهذا السبب تركز أبحاث Microsoft على الجمع بين تتبع المصدر والعلامات المائية والتوقيعات المشفرة. الدقة مهمة. التجاوز يمكن أن يقوض الجهد بأكمله.

كيف تحمي نفسك من المعلومات الخاطئة التي يولدها الذكاء الاصطناعي

على الرغم من تطور معايير الصناعة، إلا أنك لا تزال بحاجة إلى الحماية الشخصية.

1) تمهل قبل المشاركة

إذا أثار المنشور استجابة عاطفية قوية، توقف مؤقتًا. غالبًا ما يكون التلاعب العاطفي مقصودًا.

2) التحقق من المصدر الأصلي

انظر إلى ما هو أبعد من عمليات إعادة النشر ولقطات الشاشة. ابحث عن المنشور أو الحساب الأول.

3) التحقق من المطالبات الرئيسية

تغطية بحثية من منافذ إعلامية حسنة السمعة قبل قبول الروايات الدرامية.

4) التحقق من الصور ومقاطع الفيديو المشبوهة

استخدم أدوات البحث العكسي عن الصور لمعرفة مكان ظهور الصورة لأول مرة. إذا كان الإصدار الأول يبدو مختلفًا، فربما قام شخص ما بتغييره.

5) كن متشككًا بشأن التسجيلات الصوتية الصادمة

يمكن لأدوات الذكاء الاصطناعي استنساخ الأصوات باستخدام عينات صغيرة. إذا ادعى التسجيل أنه متفجر، فانتظر التأكيد من منفذ موثوق به.

6) تجنب الاعتماد على الأعلاف المفردة

تُظهر لك الخوارزميات ما تتعامل معه بالفعل. تعمل مجموعة واسعة من المصادر على تقليل خطر الوقوع في الروايات التي تم التلاعب بها.

7) تعامل مع التسميات على أنها إشارات وليس أحكام

تقترح العلامة التي تم إنشاؤها بواسطة الذكاء الاصطناعي السياق. وهذا لا يجعل المحتوى ضارًا أو كاذبًا تلقائيًا.

8) حافظ على تحديث الجهاز والبرامج

يرتبط محتوى الذكاء الاصطناعي الضار أحيانًا بمواقع التصيد الاحتيالي أو البرامج الضارة. تعمل الأنظمة المحدثة على تقليل التعرض.

تعزيز أمان الحساب

استخدم كلمات مرور قوية وفريدة ومدير كلمات مرور حسن السمعة لإنشاء وتخزين عمليات تسجيل الدخول المعقدة لك. تحقق من أفضل برامج إدارة كلمات المرور التي راجعها الخبراء لعام 2026 هنا Cyberguy.com. قم أيضًا بتمكين المصادقة متعددة العوامل حيثما كان ذلك متاحًا. لا يوجد نظام مثالي. لكن الوعي الطبقي يجعلك هدفًا صعبًا.

يقول الخبراء إن معايير وضع العلامات القوية الخاصة بالذكاء الاصطناعي يمكن أن تقلل من الاحتيال، لكنهم لا يستطيعون تحديد ما هو الصحيح. (إستوك)

قم بإجراء الاختبار الخاص بي: ما مدى أمان أمانك على الإنترنت؟

هل تعتقد أن جهازك وبياناتك آمنة حقًا؟ قم بإجراء هذا الاختبار السريع لمعرفة موقف عاداتك الرقمية. بدءًا من كلمات المرور وحتى إعدادات Wi-Fi، ستحصل على تحليل مخصص لما تفعله بشكل صحيح وما يحتاج إلى تحسين. خذ اختباري هنا: Cyberguy.com.

طريقة العربة الأصلية

تشير خطة التحقق من محتوى الذكاء الاصطناعي من Microsoft إلى أن الصناعة تدرك مدى إلحاح الأمر. إن الإنترنت يتحول من مكان نتساءل فيه عن المصادر إلى مكان نتساءل فيه عن الواقع نفسه. يمكن للمعايير الفنية أن تقلل من التلاعب بالحجم. لكنهم لا يستطيعون إصلاح نفسية الإنسان. غالبًا ما يصدق الناس ما يتوافق مع رؤيتهم للعالم، حتى عندما توحي التسميات بالحذر. يمكن أن يساعد التحقق في استعادة بعض الثقة عبر الإنترنت. ومع ذلك، لا يتم بناء الثقة بالرمز وحده.

إذن هذا هو السؤال. إذا كان كل منشور في خلاصتك يأتي مزودًا ببصمة رقمية وعلامة AI، فهل سيغير ذلك حقًا ما تؤمن به؟ اكتب لنا واسمحوا لنا أن نعرف Cyberguy.com.

انقر هنا لتحميل تطبيق فوكس نيوز

قم بالتسجيل للحصول على تقرير CyberGuy المجاني الخاص بي
احصل على أفضل النصائح التقنية والتنبيهات الأمنية العاجلة والصفقات الحصرية التي يتم تسليمها مباشرة إلى صندوق الوارد الخاص بك. بالإضافة إلى ذلك، يمكنك الوصول الفوري إلى Ultimate Scam Survival Guide – مجانًا عند انضمامك إلي CYBERGUY.COM النشرة الإخبارية

حقوق الطبع والنشر 2026 CyberGuy.com. جميع الحقوق محفوظة

مقالات ذات صلة

رابط المصدر

ترك الرد

من فضلك ادخل تعليقك
من فضلك ادخل اسمك هنا