انضم إلى الحركة - قم بالتوقيع على بيان التأخير 📑
الدليل الكامل لـ Deepfakes والذكاء الاصطناعي لمقدمي الرعاية
كل ما يحتاج مقدمو الرعاية إلى معرفته عن الذكاء الاصطناعي و Deepfakes:
الذكاء الاصطناعي - AI - يتطور بسرعة. يمكن أن تخلق الكفاءة في مهام معينة، بما في ذلك إنشاء المحتوى والبحث. كما أنها تخلق مشاكل جديدة وصعبة للغاية تتعلق بالملكية الفكرية والاستغلال، بما في ذلك الأطفال.
لقد سعى كل من البابا والبيت الأبيض ولجنة عالمية من 18 دولة إلى وضع مبادئ توجيهية وتفويضات لمستقبل الذكاء الاصطناعي. لكنها تتطور بشكل أسرع بكثير من السياسة والحكومة.
إحدى هذه التطورات المرعبة هي تقنية deepfake. يستخدم الذكاء الاصطناعي «العميق» لإنشاء أصوات وصور ومقاطع فيديو ومحادثات مزيفة. المحتوى المزيف واقعي للغاية، لدرجة أن لدينا كلمة جديدة: deepfake، والتي تمت صياغتها لأول مرة على Reddit في عام 2017.
وسرعان ما تخرج منتجات Deepfakes عن السيطرة. على سبيل المثال، ابتكر باحثو علي بابا أداة ذكاء اصطناعي جديدة تحول الصور الثابتة إلى مقاطع فيديو راقصة - تسمى «Animate Anyone». أحد أهم التعليقات على GitHub الخاص بالبرنامج هو «... لا أطيق الانتظار لاستخدام هذا للإباحية».
أو ضع في اعتبارك المراهقين في نيوجيرسي الذين ابتكروا صورًا عارية مزيفة لزميلات الدراسة. نخشى أن تكون هذه مجرد البداية. سيتم نقل محتوى الإباحية الانتقامية ومحتوى الاعتداء الجنسي على الأطفال (CSAM) إلى مستوى شرير آخر.
يتمثل التحدي مع deepfakes في عدم وجود حل تقني قوي مثل الفلتر لمنعها. هناك العديد من الخطوات التي يمكن للوالدين اتخاذها للتخفيف من المخاطر ونحن نشاركها أدناه. لكننا أيضًا بحاجة ماسة إلى حل تنظيمي للسيطرة على التكنولوجيا. ويبدو أن الحكومات فوجئت بشكل يرثى له بهذه التطورات.
ما هو التفسير الأساسي للذكاء الاصطناعي؟
لعرض قوة الذكاء الاصطناعي وسهولة استخدامه، طلبنا من ChatGPT (أحد أشهر نماذج لغة الذكاء الاصطناعي) كتابة مقدمة تشرح ماهية الذكاء الاصطناعي. في حوالي 5 ثوانٍ، كتب منشورًا كاملاً. لقد قمنا بتضمين بعض المقتطفات فقط:
فيما يلي مقدمة للذكاء الاصطناعي:
«يتضمن الذكاء الاصطناعي تطوير الخوارزميات والأنظمة الحسابية القادرة على أداء المهام التي تتطلب عادةً الذكاء البشري. تم تصميم أنظمة الذكاء الاصطناعي لتكييف وتحسين أدائها بمرور الوقت، مما يمكنها من مواجهة التحديات المعقدة بكفاءة ودقة. الهدف النهائي هو إنشاء آلات يمكنها عرض سمات مثل التفكير وحل المشكلات والإدراك والتعلم وفهم اللغة - وهي قدرات مرتبطة تقليديًا بالذكاء البشري».
هذه هي قوة الذكاء الاصطناعي. في غضون ثوانٍ، أنشأت ChatGPT محتوى بدا جذابًا ومدروسًا ومنظمًا جيدًا. إنه لأمر مدهش ومخيف أن نرى مدى سرعة وسهولة إنشاء محتوى عالي الجودة باستخدام الذكاء الاصطناعي.
كيف يؤثر الذكاء الاصطناعي على الأطفال؟
تسبب الإطلاق الأولي لأدوات مثل ChatGPT في مخاوف الغش. مع بعض المطالبات، كان لدى الأطفال ChatGPT إنشاء أوراق من الدرجة الأولى بدلاً من القراءة والتعلم والكتابة بأنفسهم. استجابت المدارس في البداية بحظر أدوات الكتابة بالذكاء الاصطناعي. لكن سرعان ما أدرك الكثيرون أن الأطفال بحاجة إلى تعلم كيفية استخدامها بمسؤولية. اتخذت مدارس أخرى خطوة حكيمة لإنشاء سياسة «الاستخدام الأخلاقي للذكاء الاصطناعي».
يستشهد Vosloo ببحث من Ofcom (مكتب الاتصالات) في المملكة المتحدة يشير إلى أن 80٪ من المراهقين عبر الإنترنت الذين تتراوح أعمارهم بين 13 و 17 عامًا يستخدمون الآن أدوات الذكاء الاصطناعي المولدة، بالإضافة إلى 40٪ من الأطفال الذين تتراوح أعمارهم بين 7 و 12 عامًا.
ثم بدأت روبوتات الدردشة بالذكاء الاصطناعي في الظهور في محركات البحث مثل Google و Bing ووسائل التواصل الاجتماعي. الأبرز هو برنامج سناب شات «الذكاء الاصطناعي الخاص بي» وهو ما اعتبره معظم الشباب مخيفًا للغاية. أثناء التسوق عبر الإنترنت والتفاعل مع «الدردشة» لخدمة العملاء، اختبر الكثير منا الآن قوة الذكاء الاصطناعي في الاستجابة لأسئلتنا.
لقد كانت مسألة وقت فقط قبل أن يتم استخدام هذه التكنولوجيا القوية لتغذية الاستغلال. على الرغم من وجود صور صريحة ومزيفة للمشاهير منذ سنوات، إلا أنها كانت رديئة وملفقة بشكل واضح. ولكن بمجرد أن أصبحت التكنولوجيا قابلة للتطوير وواقعية مخيفة، تم فتح صندوق Pandora. الآن يمكن لأي شخص في صورة أو مقطع فيديو «عادي» أن يصبح ضحية لصور مزيفة أو محتوى فيديو واقعي للغاية.
بما في ذلك الإباحية المزيفة.
أو تأمل قصة الأم التي تلقت مكالمة اختطاف وهمية استخدمت صوت ابنتها الناتج عن الذكاء الاصطناعي.
سنشرح الآن التزييف العميق، والذي يتضمن تقنية التعري، والصديقات الافتراضيات (نعم، لقد قرأت ذلك بشكل صحيح).
ما هي منتجات ديب فايكز؟
أحب هذا التعريف من techtarget.com: «نوع من الذكاء الاصطناعي يستخدم لإنشاء خدع مقنعة للصور والصوت والفيديو». ذكر تعريف آخر: «عادةً ما يتم استخدام [deepfakes] بشكل ضار وتهدف إلى نشر معلومات كاذبة.» إنه شكل من أشكال الذكاء الاصطناعي يستخدم التعلم العميق، وهو المكان الذي نشأ فيه الاسم.
بعض الأمثلة الحديثة على التزييف العميق:
- تم عرض فيلم Tom Hanks المزيف في تأمين أسنان تجاري كامل للبيع.
- تبرز مقاطع الفيديو الخاصة بالفظائع الملفقة من الصراع بين إسرائيل وحماس على TikTok.
- قام كيانو ريفز وتوم كروز وروبرت داوني جونيور بتلفيق قنوات التواصل الاجتماعي بالكامل بما يشبههم.
يكاد يكون من المستحيل معرفة الفرق للوهلة الأولى! يتم تشغيل حسابات وسائل التواصل الاجتماعي هذه بواسطة Metaphysic، رائدة تقنية deepfake:
يمكن لـ Deepfakes بسهولة تغيير تعابير الوجه والتلاعب بالكلام وحتى أخذ وجه شخص ما ووضعه على جسم شخص آخر، كما هو موضح أعلاه. يمكنك البدء في رؤية كيف يمكن استخدام هذا للتسبب في الضرر.
هناك أيضًا فئة كاملة من التطبيقات ومواقع الويب التي «تعري» الصور. ما عليك سوى تحميل أي صورة فعلية لفتاة (تم تدريب جميع التقنيات تقريبًا على الصور النسائية - وليس الذكور) وسيقوم التطبيق بإزالة ملابسها، مع عرض نسخة منها عارية. هذا مجرد شكل آخر من أشكال العري المزيف - وضع وجه شخص حقيقي على جسم مزيف في صورة أو مقطع فيديو. لكن التكنولوجيا واقعية للغاية، مما يجعل من المستحيل تقريبًا معرفة أنها مزيفة.
مجموعة تضم أكثر من 30 فتاة مراهقة من مدرسة نيو جيرسي الثانوية كانوا ضحايا العراة المزيفة التي ولدها زملاء الدراسة. قالت إحدى الفتيات: «نحن ندرك أن هناك رجالًا مخيفين... لكنك لن تعتقد أبدًا أن أحد زملائك في الفصل سينتهكك بهذه الطريقة».
ما هي مخاطر تقنية Deepfake؟
تصبح سرقة الهوية أسهل بكثير عندما تمتلك وجه شخص ما! خاصة عندما تفكر في القياسات الحيوية.
يمكن إنشاء معلومات كاذبة على نطاق واسع، خاصة خلال عام الانتخابات. يمكن للمعارضة تزييف الخطاب السياسي، مما يجعل أي شخصية عامة تقول أي شيء. وهذا يعني أنه يمكن تدمير السمعة على الفور في «ثقافة الإلغاء السريع» الخاصة بنا. تأمل القصة الحقيقية لطلاب نيويورك الذين أنشأوا مقطع فيديو كاذبًا من مديرهم بمواضيع عنصرية وصريحة.
يمكن استخدام الأصوات المزيفة من قبل الجهات الفاعلة السيئة للاعتداء على الأفراد المسنين. تلقت أم من كولورادو مكالمة من رقم غير معروف وسمعت ابنتها تبكي، موضحة بشكل يائس أنها اختطفت من قبل رجال وتم احتجازها للحصول على فدية (كل هذا غير صحيح).
مثل الفتيات من ولاية نيو جيرسي، يمكن أن يتعرض الطلاب للتحرش الجنسي والوقوع ضحية من قبل زملاء الدراسة الذين ينشرون صورًا فاضحة مزيفة - والتي يمكن أن يكون لها تأثير حقيقي على فرص التعليم العالي والمسارات المهنية.
يمكن الآن إنشاء مواد إباحية غير توافقية بسهولة من قبل البالغين من البالغين الآخرين.
تتغير مواقع Deepfake و nudify يوميًا. هذا يعني أن معظم أدوات الرقابة الأبوية ستكون دائمًا وراء حظر هذه المواقع. لقد اختبرنا 43 موقعًا مزيفًا وnudify ومواقع GF افتراضية مقابل أدوات الرقابة الأبوية الشائعة مثل Covenant Eyes و CleanBrowsing و «الحد من مواقع الويب للبالغين» من Apple و Bark والبحث الآمن من Google. قام زوجان فقط بعمل جيد. كان أداء البقية ضعيفًا جدًا. شاركت النتائج مع المنظمات ووافقت على عدم مشاركة ما وجدناه علنًا إذا قاموا بإصلاح المشكلات. قام الجميع باستثناء واحد بتصحيح الفجوات (ما زلت أحاول العثور على الشخص المناسب). ولكن يتم إضافة مواقع جديدة يوميًا.
يمكن إنشاء محتوى الاعتداء الجنسي على الأطفال الذي تم إنشاؤه بواسطة الذكاء الاصطناعي (AIG-CSAM) من قبل مشتهي الأطفال على نطاق واسع، مما يؤجج وباء CSAM العالمي وقضايا مثل الابتزاز الجنسي، حيث يمكن إقناع المراهقين بإرسال الأموال لتجنب تداول الصور المزيفة (لكن المراهقين لا يستطيعون معرفة أنها مزيفة).
على المستوى الإنساني، هناك أضرار أخرى يجب أن نأخذها في الاعتبار. على سبيل المثال، هناك الآلاف من القاصرين في البلدان الفقيرة الذين يقومون بتغذية الصور والمحتوى في نماذج الذكاء الاصطناعي - وتدريبهم - حتى تكون أكثر دقة.
ضع في اعتبارك أيضًا تأثير الصديقات الافتراضية المخصصة بالكامل. هذا بالضبط ما يبدو عليه الأمر. يمكنك إنشاء صورة أو فيديو لأي أنثى بأي ميزات تطلبها. يمكنها إرسال رسالة نصية إلى هاتفك، والاتصال بك، وإرسال صور عارية لك، والاستمرار في علاقة افتراضية مزيفة ولكنها مقنعة للغاية.
إليك ملاحظة. تحتوي معظم مواقع deepfake وإنشاء الذكاء الاصطناعي التي قمنا بزيارتها على خادم Discord. لدى Discord قاعدة مستخدمين قوية من اللاعبين الذكور. بشكل نمطي، جمهور أكثر صعوبة اجتماعيًا، لذلك قد تكون الصديقة الافتراضية أسهل. ضع في اعتبارك هذه اللغة المنحرفة المستخدمة في أحد مواقع الويب التي تستهدف الشباب الذكور:
تخيل إضاعة الوقت في اصطحابها للخارج في مواعيد، بينما يمكنك فقط استخدام Undress AI للحصول على صور عارية لها.
ما الذي يمكن للوالدين فعله للمساعدة في منع التزييف العميق؟
كما ذكرنا في الافتتاح، لا توجد العديد من الحلول التقنية التي يمكن أن تمنع هذه المشكلة. كل شخص لديه هاتف ذكي ويمكنه التقاط صور لأي شخص. ولكن فيما يلي 14 طريقة لمعالجة مخاطر التزييف العميق:
- من الناحية العلائقية، دع ابنك المراهق يقرأ هذا المنشور. قم بإجراء محادثة غريبة وهادئة حول كيف يمكن للذكاء الاصطناعي أن يفيد البشرية. ثم قم بإجراء محادثة حول المخاطر والعواقب. أنت لا تلوح بإصبع «الطفرة» المحبط في الذكاء الاصطناعي. لكن هذا الإصدار من «الإنترنت» الأقوى من الإصدار «المكسور» من الإنترنت الذي لدينا اليوم يتقدم بسرعة كبيرة. أسرع من قدرتنا على جعلها أقل ضررًا للبشر.
- التأخير، التأخير، التأخير. تؤدي البصمة الرقمية الأصغر إلى تقليل مخاطر الضرر الرقمي. دائمًا. #delayistheway
- إذا كان طفلك لديه هاتف Android، بالإضافة إلى استخدامه تصفية فاميلي لينك، استخدم برنامج بارك المميز أو عيون العهد للكشف عن النصوص الصريحة والمواد الإباحية على الشاشة. لماذا؟ لأن عناوين URL (مواقع الويب) الخاصة بـ deepfakes تتغير يوميًا. تعد «قائمة عدم السماح مطلقًا» التي تحاول حظر هذه المواقع جيدة ولكن يجب تحديثها باستمرار (وهو أمر لا يمكن الدفاع عنه).
- إذا كان لدى طفلك جهاز iPhone، فاستخدم «الحد من مواقع البالغين» التصفية، ولكن لا شيء يمكنه تحليل الشاشة بسبب قيود iOS. لحاء، المظلة، و عيون العهد يمكن رؤية بعض النصوص وبعض الأنشطة الخلفية وهي ضرورية. ومع ذلك، سيتعين على الآباء الاعتماد بشكل كبير على المحادثة والاتصال نظرًا لأن بعض الحلول التقنية تعمل على أجهزة iPhone. ملاحظة: شاركنا مؤخرًا نتائج اختبار عناوين URL المزيفة مع الشركات، بما في ذلك Apple، وكلها تعالج الثغرات.
- نود أن يتذوق الطفل لأول مرة وسائل التواصل الاجتماعي على بارك فون لأن الآباء سيحصلون على أفضل فرصة للتدخل إذا كان الطفل يستكشف مواقع الويب أو كان ضحية ابتزاز جنسي.
- بالنسبة لكل من أجهزة iPhone و Android، يجب على الآباء: التحكم في جميع تنزيلات التطبيقات. تطبيقات Deepfake ومبادلة الوجه منتشرة ويتم تصنيفها حسب العمر حتى سن 4 سنوات فما فوق، وهو أمر مروع.
- اتفق على كلمة سر أو سؤال فريد يمكنك طرحه إذا تلقيت مكالمة هاتفية غير عادية من طفلك. تأكد من أن طفلك يعرف أيضًا كيفية التعامل مع المكالمات من أشخاص لا يعرفونهم (أخبر، احظر، احذف! اعرض لهم هذا الفيديو).
- تحدث إلى أطفالك الصغار والمراهقين عن الابتزاز الجنسي. قريبًا! منشورنا يشرح كل شيء.
- إذا كان طفلك قيد التشغيل إينستاجرام، تيك توك، كن حقيقيًا، أو سناب شات، اجعل متابعتهم على وسائل التواصل الاجتماعي صغيرة جدًا. أقل من 100 شخص، إن أمكن. اجعلهم يتخيلون تسليم كل صورة لكل شخص يتابعونه.
- يجب على الآباء ومقدمي الرعاية أيضًا توخي الحذر الشديد مع الصور التي نشاركها عبر الإنترنت. ربما تتم مشاركة معظم صور أطفالك فقط مع العائلة في نص.
- إذا كان طفلك لديه إينستاجرام، كن حذرًا جدًا فيما يشاركونه في ملفهم الشخصي العام. لا تقم أبدًا بتضمين ملف تعريف Snapchat الخاص بهم.
- إذا كان لدى طفلك Instagram و/أو TikTok، فتأكد من أن حسابه خاص (يجب أن يكون هذا هو الحساب الافتراضي إذا تم استخدام تاريخ الميلاد الصحيح).
- ناقش الأخبار المزيفة. هل لدى طفلك بعض التقنيات لاكتشافه؟ (على سبيل المثال، مصادر متعددة). إذا كان يبدو جيدًا جدًا لدرجة يصعب تصديقها، فمن المحتمل أن يكون كذلك.
- قم بإزالة الهواتف من المدارس، لأنها مجرد مكان آخر يمكن التقاط الصور فيه. لقد كتبنا على نطاق واسع حول هذا الموضوع.
- أعلم أن جميع متابعينا ليسوا أفرادًا يصلون. لذلك، لن تنطبق هذه الخطوة الأخيرة على الجميع ولكن يجب أن أذكرها لأولئك الذين يفعلون ذلك. هذه قضية شريرة. يرجى التعامل معها على هذا النحو.
ماذا لو كان لدي المزيد من الأسئلة؟ كيف يمكنني البقاء على اطلاع؟
إجراءان يمكنك اتخاذهما!
- اشترك في النشرة الإخبارية لاتجاهات التكنولوجيا، تنزيل PYE. كل 3 أسابيع تقريبًا، سنشارك الجديد، وما ينوي فريق PYE القيام به، ورسالة من كريس.
- اطرح أسئلتك في مجتمع الآباء الخاص بنا المسمى The Table! إنها ليست مجموعة فيسبوك أخرى. لا توجد إعلانات ولا خوارزميات ولا علامات نجمية. مجرد محادثات صادقة ونقدية وتعلم عميق! للآباء الذين يريدون «السير ببطء» معًا. كن عضوًا اليوم!
رسالة من الرئيس التنفيذي لدينا
اقرأ عن التزام فريقنا بتزويد الجميع على منصتنا العالمية بالتكنولوجيا التي يمكن أن تساعدهم على المضي قدمًا.
ظهرت في مرحلة الطفولة 2.0
يشرفني الانضمام إلى Bark وغيره من المدافعين الرائعين في هذا الفيلم.
مقدم المنتدى الاقتصادي العالمي
انضم إلى ائتلاف من الخبراء العالميين لتقديم معلومات عن أضرار وسائل التواصل الاجتماعي.
شهد أمام الكونغرس
شاركنا أبحاثنا وخبراتنا مع اللجنة القضائية بمجلس الشيوخ الأمريكي.