• کوردی
  • English
الجمعة 2026/03/06
نحن مخلصون للحقيقة فقط
  • الصفحة الرئيسية
  • التصنيفات
    • زائف
    • مضلّل
    • غير دقيق
    • ساخر
    • صحيح
  • تدوينات
  • أخبار
  • أمن رقمي
  • تربية إعلامية – رقمية
  • توضيحات
  • تحذيرات
  • إرسل طلب تحقق
  • سياسات
    • التعريفات
    • منهاج العمل
    • سياسة تصحيح الأخطاء
    • سياسة الخصوصية
    • سياسة السلوك
    • سياسة عدم الانحياز
    • سياسة التمويل
    • سياسة استقبال الشكاوى
  • من نحن
    • من نحن
    • الرؤية والأنشطة
    • الهيكل التنظيمي
    • مصادر التمويل
    • فريق العمل
    • المتطوعون
    • اتصل بنا
لاتوجد نتائج
مشاهدة كل النتائج
  • الصفحة الرئيسية
  • التصنيفات
    • زائف
    • مضلّل
    • غير دقيق
    • ساخر
    • صحيح
  • تدوينات
  • أخبار
  • أمن رقمي
  • تربية إعلامية – رقمية
  • توضيحات
  • تحذيرات
  • إرسل طلب تحقق
  • سياسات
    • التعريفات
    • منهاج العمل
    • سياسة تصحيح الأخطاء
    • سياسة الخصوصية
    • سياسة السلوك
    • سياسة عدم الانحياز
    • سياسة التمويل
    • سياسة استقبال الشكاوى
  • من نحن
    • من نحن
    • الرؤية والأنشطة
    • الهيكل التنظيمي
    • مصادر التمويل
    • فريق العمل
    • المتطوعون
    • اتصل بنا
لاتوجد نتائج
مشاهدة كل النتائج
نحن مخلصون للحقيقة فقط
لاتوجد نتائج
مشاهدة كل النتائج
الرئيسية تربية إعلامية - رقمية

بصمة “SynthID” من غوغل.. كيف يستفيد منها مدققو المعلومات؟

الفاحص الفاحص
3 أسابيع مضت
A A
بصمة “SynthID” من غوغل.. كيف يستفيد منها مدققو المعلومات؟

الفاحص

Share on FacebookShare on TwitterShare on WhatsappShare on TelegramShare on Email

مع التطور الكبير في قدرات الذكاء الاصطناعي، أصبح الخط الفاصل بين ما هو حقيقي وما هو مُصطنع، ضبابياً للغاية، بسبب المواد المولدة التي تبدو أقرب إلى الحقيقة، وتشمل الصور، والنصوص، والمقاطع المرئية والصوتية التي يصعب تمييزها بالسمع والعين المجردة.

وهنا، يبرز دور أداة “SynthID” التي طورتها شركة “Google DeepMind“، كحل تقني متطور يهدف إلى إعادة “الثقة” بالمحتوى الرقمي، من خلال وضع “بصمة” خفية تميز إنتاج الآلة عن إنتاج البشر وتسهل عمل مدققي المعلومات في كشف المحتوى المولد، الذي ينتشر في سياقات مضللة على أنه حقيقي.

ما هي SynthID؟
هي تقنية لوضع علامات مائية رقمية غير مرئية ومدمجة مباشرة في المحتوى الذي يتم توليده بواسطة نماذج الذكاء الاصطناعي من غوغل. وعلى عكس العلامات المائية التقليدية التي تظهر كشعار أو نص باهت فوق الصورة، تقوم SynthID بدمج العلامة في البنية الأساسية للملف (سواء كان صورة، أو صوت، أو فيديو أو نص) بطريقة لا تدركها الحواس البشرية، ولكن يمكن للأنظمة البرمجية اكتشافها بسهولة.

كيف تعمل SynthID؟
تختلف آلية العمل بحسب نوع المحتوى، ولكن المبدأ الأساسي يعتمد على التلاعب الدقيق بالبيانات، ففي الصور عندما يقوم النموذج بتوليد صورة، تقوم SynthID بتعديل قيم البكسلات (Pixels) بشكل طفيف جداً وغير ملحوظ للعين البشرية، وهذه التعديلات يمكن قراءتها بواسطة أداة الكشف الخاصة لتحديد ما إذا كانت الصورة مولدة بالذكاء الاصطناعي.

وأجرى فريق الفاحص عدة تجارب على الأداة، وتبين أنها قادرة بنسبة كبيرة على تمييز المحتوى الذي أنتجته أدوات غوغل للذكاء الاصطناعي، عن المحتوى الحقيقي أو المولد بواسطة أدوات توليد من شركات أخرى، ما يشير إلى فاعلية بصمة “SynthID”.

وفي النصوص، يعد وضع علامة مائية عليها تحدياً كبيراً،  لأن تغيير كلمة واحدة قد يغير المعنى، ولكن SynthID تستخدم تقنية للنصوص تعتمد على الإحصاء والاحتمالات، فعندما يولد الذكاء الاصطناعي نصاً، فإنه يختار الكلمة التالية بناءً على احتمالية وجودها، وتتدخل SynthID لتعديل هذه الاحتمالات بنمط تقني معين دون التأثير على جودة النص أو معناه. ويعمل هذا النمط الإحصائي كتوقيع يمكن اكتشافه في وقت لاحق.

أما الصوت والفيديو، فتقوم الأداة بتحويل الملف الصوتي إلى طيف مرئي (Spectrogram) وتضيف العلامة المائية فيه بطريقة لا تؤثر على جودته، ولكنها تبقى موجودة حتى لو تم ضغط الملف أو التعديل عليه، وكذلك الأمر بالنسبة للفيديو، الذي تكون فيه البصمة مزدوجة بين الصوتية والصورية.

مميزات SynthID 
تتمتع الأداة بعدة خصائص تجعلها فريدة في المجال الرقمي، أبرزها هي أنها غير محسوسة، أي لا تؤثر على جودة الصورة، ولا تغير نبرة الصوت ولا تفسد سياق النص، كما تمتاز بالمتانة والقابلية على مقاومة التعديلات مثل قص الصورة، أو تغيير ألوانها أو وضع فلاتر عليها أو ضغطها، حيث تبقى العلامة المائية قابلة للكشف.

لماذا نحتاج إلى SynthID الآن؟
تكمن أهمية هذه الأداة في معالجة المخاطر الأخلاقية والاجتماعية للذكاء الاصطناعي، من خلال مكافحة التزييف العميق ومنع انتشار الصور ومقاطع الفيديو المفبركة للشخصيات العامة، وبهذا يمكن مكافحة التضليل وكشف المحتوى الزائف الذي يُقدم على أنه حقيقي.

التحديات والقيود:
رغم تطورها، إلا أن SynthID (وأي تقنية علامات مائية أخرى) ليست حلاً سحرياً، إذ أنها ليست مضمونة 100% ويمكن للمتلاعبين المحترفين إيجاد طرق لتشويش العلامة المائية عبر تعديلات جذرية ومعقدة.

ومن أجل اعتمادية التقنية ونجاحها، يجب أن يتم تبنيها من قبل جميع الشركات المطورة لنماذج الذكاء الاصطناعي، لا من قبل غوغل فقط، أو على الأقل انتهاج نفس النهج في تطوير تقنية لكل شركة بحد ذاتها، حيث تعمل SynthID حالياً بشكل أساسي على المحتوى الذي يتم إنتاجه عبر أدوات ذكاء اصطناعي تابعة لغوغل. لذا، كمدقق معلومات ستساعدك في إثبات أن الصورة “من صنع ذكاء غوغل”، لكن عدم وجود البصمة لا يعني بالضرورة أن الصورة حقيقية (فقد تكون مولدة بأداة أخرى مثل Midjourney أو chatgpt).

المصادر: رابط1 – رابط2 – رابط3

#خليك_فاحص
الفاحص

الفاحص

منصة “الفاحص” للتحقق والتربية الإعلامية الرقمية: منصة عراقية تهدف إلى كشف وتصحيح الأخبار المضللة التي يتم تداولها في الفضاء الرقمي العراقي

المنشورات الاكثر قراءة

الفيديو للرئيس اللبناني متلاعب به صوتياً بالذكاء الاصطناعي!

الفيديو للرئيس اللبناني متلاعب به صوتياً بالذكاء الاصطناعي!

الجمعة 2026-03-06
10
الحكومة العراقية لـ”الفاحص”: لم يرد إخطار رسمي بالسماح لسفن العراق بالمرور من هرمز!

الحكومة العراقية لـ”الفاحص”: لم يرد إخطار رسمي بالسماح لسفن العراق بالمرور من هرمز!

الجمعة 2026-03-06
20
الصورة مولدة بالذكاء الاصطناعي وليست لرسومات طائرات إيرانية تعرّضت للقصف!

الصورة مولدة بالذكاء الاصطناعي وليست لرسومات طائرات إيرانية تعرّضت للقصف!

الجمعة 2026-03-06
183
الصور مولدة بالذكاء الاصطناعي وليست لأسر جنود أميركيين فشلوا بعمل إنزال جوي في إيران!

الصور مولدة بالذكاء الاصطناعي وليست لأسر جنود أميركيين فشلوا بعمل إنزال جوي في إيران!

الجمعة 2026-03-06
122
نحن مخلصون للحقيقة فقط

منصة “الفاحص” للتحقق و التربية الإعلامية الرقمية : منصة عراقية تهدف إلى كشف و تصحيح الأخبار المضللة التي يتم تداولها في الفضاء الرقمي العراقي
للتواصل معنا عبر البريد الإلكتروني [email protected]

تابعونا على

احد مشاريع مؤسسة أنسم للحقوق الرقمية

  • الصفحة الرئيسية
  • التصنيفات
  • تدوينات
  • أخبار
  • أمن رقمي
  • تربية إعلامية – رقمية
  • توضيحات
  • تحذيرات
  • إرسل طلب تحقق
  • سياسات
  • من نحن

جميع الحقوق محفوظة 2025

لاتوجد نتائج
مشاهدة كل النتائج
  • الصفحة الرئيسية
  • التصنيفات
    • زائف
    • مضلّل
    • غير دقيق
    • ساخر
    • صحيح
  • تدوينات
  • أخبار
  • تربية إعلامية – رقمية
  • أمن رقمي
  • توضيحات
  • تحذيرات
  • إرسل طلب تحقق
  • سياسات
    • التعريفات
    • سياسة الخصوصية
    • سياسة السلوك
    • سياسة تصحيح الأخطاء
    • منهاج العمل
    • سياسة عدم الانحياز
    • سياسة التمويل
    • سياسة استقبال الشكاوى
  • من نحن
    • من نحن
    • الرؤية والأنشطة
    • الهيكل التنظيمي
    • مصادر التمويل
    • فريق العمل
    • المتطوعون
    • اتصل بنا
  • کوردی
  • English

جميع الحقوق محفوظة 2025