تقليد الأصوات بالذكاء الاصطناعي: التهديد الخفي بالمعلومات المضللة والابتزاز الرقمي

تقليد الأصوات بالذكاء الاصطناعي: خطر صامت يهدد الحقيقة

في ظل التسارع الهائل في قدرات الذكاء الاصطناعي، ظهرت تقنيات جديدة تتيح استنساخ الأصوات البشرية بدقة مذهلة، لدرجة يصعب معها التمييز بين الصوت الحقيقي والمزيف حتى على أذن الإنسان المدربة. ما كان قبل سنوات مجرد خيال علمي أصبح اليوم أداة قوية، لا تُستخدم فقط في الترفيه وصناعة الأفلام، بل باتت تُستغل أيضا لأغراض خبيثة، مثل ابتزاز الشخصيات العامة، وتوريط الأبرياء، ونشر معلومات مغلوطة بمصداقية زائفة.

تُعد تقنيات تقليد الأصوات أو ما يعرف بـ الاستنساخ الصوتي” (Voice Cloning) واحدة من أخطر تطبيقات الذكاء الاصطناعي التوليدي، حيث تُستخدم شبكات عميقة لتحليل وتوليف صوت شخص حقيقي بناء على عينة قصيرة من صوته. تكمن الخطورة في أن هذه التكنولوجيا لم تعد حكرا على المختبرات البحثية، بل أصبحت متاحة تجاريا، وتُستخدم بالفعل في إنتاج تسجيلات صوتية مزيفة تُنسب زورا لأشخاص حقيقيين، ضمن حملات توريط سياسي أو ابتزاز مالي أو تشويه السمعة.

تهدف هذه الدراسة إلى تحليل هذه الظاهرة بدقة علمية ومنهجية، من خلال استعراض آليات عمل تقنيات استنساخ الصوت، والتحديات الأخلاقية والقانونية المرتبطة بها، إضافة إلى تقديم أمثلة واقعية وتحليل تأثيرها على الأمن الرقمي والثقة الاجتماعية.

تقليد الصوت بالذكاء الاصطناعي يعتمد على ما يُعرف بنماذج “التعلم العميق” (Deep Learning)، وهي نماذج رياضية تستلهم من طريقة عمل الدماغ البشري. وتحديدا، يتم استخدام نماذج من فئة الشبكات العصبية العميقة (Deep Neural Networks)، مثل نماذج تحويل النص إلى كلام (Text-to-Speech – TTS) أو المولدات الصوتية المعتمدة على GANs أو Diffusion Models.

المراحل التقنية الأساسية لعملية استنساخ الصوت:

  1. جمع بيانات صوتية:
    يتم أولا جمع مقاطع صوتية من المتكلم المستهدف. في النسخ المتقدمة، يمكن بناء نموذج صوتي خاص بشخص ما انطلاقا من تسجيل لا يتعدى 30 ثانية.
  2. استخراج البصمة الصوتية (Voiceprint):
    تُحلل التسجيلات لاستخراج ما يُعرف بالبصمة الصوتية، وهي تمثيل رقمي معقد يشمل الخصائص الفيزيائية والبيانية للصوت (مثل نبرة الصوت، النغمة، السرعة، ونمط النطق).
  3. التدريب على النموذج الصوتي:
    تُغذى هذه البصمة إلى نموذج تعلم عميق، غالبا من نوع “الترميز الصوتي العميق” (Tacotron، أو FastSpeech)، أو “المُركّب الصوتي” (Vocoder) مثل WaveNet أو HiFi-GAN.
  4. التحويل من نص إلى صوت مزيف:
    بمجرد تدريب النموذج، يصبح بالإمكان إدخال أي نص كتابي وسيُنتج بصوت مطابق تماما لصوت الشخص الأصلي، بصرف النظر عما إذا كان قد قال هذا الكلام فعلا أم لا.

أبرز التقنيات المستخدمة:

هل يمكن اكتشاف الفرق؟

النسخ الأولية كانت تفتقر للدقة وتظهر بها عيوب صوتية واضحة، لكن النسخ الحالية تُنتج أصواتا يصعب تمييزها حتى من قبل أنظمة التعرف الصوتي الآلية، مما يجعل الأمر بالغ الخطورة إذا استُخدم في جرائم إلكترونية.

في ظل غياب الضوابط القانونية والتقنية الرادعة، أصبح استنساخ الأصوات أداة قوية في يد جهات تسعى للإضرار بالآخرين بوسائل رقمية يصعب تتبعها أو إثباتها بسهولة. وتتنوع الاستخدامات الخبيثة لتقليد الأصوات ما بين الجريمة الرقمية، والحرب النفسية، والتلاعب الإعلامي، نعرض أبرزها فيما يلي:

أحد أكثر التطبيقات خطورة يتمثل في ابتزاز الأشخاص من خلال تسجيلات صوتية مزيفة تُنسب إليهم زورا، تحتوي على تصريحات أو اعترافات قد تُدمر حياتهم الشخصية أو المهنية. يحصل المجرم على مقطع صوتي قصير من الضحية (من مكالمة هاتفية أو فيديو منشور)، ثم يُنتج تسجيلا جديدا يضع الضحية في موقف مشين أو يربطه بتصريح سياسي أو أخلاقي خطير، ثم يهدده بنشره ما لم يدفع مبالغ مالية.

مثال واقعي: في عام 2023، تلقت العديد من الشركات الألمانية اتصالات صوتية من أشخاص يبدون وكأنهم المدير التنفيذي يطلبون تحويل أموال عاجلة لحسابات خارجية. لاحقا، تبيّن أن هذه الأصوات كانت مُنتَجة بواسطة AI، وأن العملية كانت خدعة محكمة استهدفت الاحتيال المالي.

في سياقات أكثر تعقيدا، تُستخدم هذه التقنيات لتوريط شخصيات عامة — سياسيين، قضاة، قادة رأي — في تصريحات حساسة يُفترض أنهم أدلوا بها، بينما هي في الحقيقة منتَجة عبر خوارزميات صوتية اصطناعية. هذا النوع من التزييف يمثل تهديدا مباشرا للديمقراطية، ويفتح الباب أمام حروب معلوماتية رقمية.

تحذير استخباراتي: أصدرت وكالات أمنية أمريكية وأوروبية في 2024 تحذيرات من استخدام تكنولوجيا استنساخ الصوت في حملات تضليل ممنهجة تهدف إلى الإضرار بالثقة العامة في الانتخابات أو التأثير على الرأي العام بشأن قضايا محورية.

وسائل الإعلام، سواء التقليدية أو الرقمية، قد تتعرض لخداع مباشر من خلال تسريبات صوتية مزيفة يتم تمريرها على أنها “حصرية” أو “مسربة”، مما يربك المؤسسات الصحفية ويدفع بعضها لنشر محتوى مضلل قبل التحقق. وقد تُستخدم هذه الملفات لتزوير مقابلات صوتية، أو خطب، أو تعليمات مزعومة لرؤساء أو مسؤولين.

التحدي الأكبر: مع تطور التكنولوجيا، أصبحت بعض هذه التسجيلات “مقنعة” حتى للخبراء، لا سيما إن تم دمجها مع فيديوهات مزيفة بتقنية Deepfake المرئية، ما يزيد من قوتها الإقناعية بشكل غير مسبوق.

في فضاءات التواصل الاجتماعي، حيث تنتشر التسجيلات الصوتية بسرعة فائقة، يمكن لتسجيل زائف لشخص عادي أن يُدمر سمعته خلال ساعات. وتزداد هذه المخاطر في المجتمعات التي ترتكز فيها القيم على الشرف أو المعتقدات، ما يجعل الصوت المزيف أداة فعالة في الانتقام الرقمي أو العنف السيبراني.

تقوم بعض العصابات السيبرانية باختراق منظومات الاتصال الصوتي داخل الشركات، أو خلق تسجيلات لمديرين تنفيذيين يأمرون بتحويل أموال أو تغيير أوامر التوريد، ما يُعرف بهجمات “CEO fraud”. ووفقا لتقرير “McAfee Threats 2024″، ازداد هذا النوع من الهجمات بنسبة 270% مقارنة بالعام السابق، بسبب تطور أدوات انتحال الصوت.

تحليل الظاهرة: لماذا تُعد خطرة جدا؟

التداعيات القانونية والأخلاقية لتقليد الأصوات: هل نحتاج قوانين جديدة؟

إن تصاعد وتيرة استغلال تقنية تقليد الأصوات (Voice Cloning) في عمليات الابتزاز والتزوير والتشهير، يطرح سؤالا جوهريا حول مدى كفاية الإطار القانوني والأخلاقي الحالي لمواجهة هذا التهديد الرقمي الجديد. فما الذي يمكن أن يقوله القانون؟ وهل أصبحت الأخلاقيات الرقمية عاجزة أمام تطور الذكاء الاصطناعي؟

رغم أن العديد من التشريعات تجرّم الابتزاز والتزوير وانتهاك الخصوصية، إلا أن أغلبها لم يُصمم للتعامل مع الجرائم الرقمية المدفوعة بالذكاء الاصطناعي، خصوصا ما يتعلق بتقليد الهوية الصوتية. ولذا فإن العديد من حالات الانتحال الصوتي لا تندرج ضمن جريمة قائمة بذاتها، مما يعقد مسألة الملاحقة القضائية.

أمثلة من الواقع القانوني:

2- حدود المسؤولية القانونية في حالات “النية غير الإجرامية”

من الإشكالات العميقة التي تطرحها هذه التقنية هو إمكانية استخدامها لأغراض فنية أو ترفيهية أو تعليمية، دون نية خبيثة. فهل يقع المبرمج أو المستخدم تحت طائلة القانون إذا لم يكن قصده الإساءة؟ هذا السؤال يفتح بابا على مسؤولية النوايا، وإمكانية تقنين الاستخدام بدلا من تجريمه المطلق.

✅ مثال: في الولايات المتحدة، قام أحد منشئي المحتوى بإنتاج أغنية بأصوات مستنسخة لفنانين مشهورين دون موافقتهم، ما أثار جدلا واسعا حول الحقوق الفكرية للصوت بوصفه “علامة شخصية”.

على المستوى الأخلاقي، يُعد الصوت من الخصائص الشخصية الأكثر ارتباطا بالهوية. واستغلاله دون إذن يُعد انتهاكا صارخا للخصوصية والكرامة الإنسانية، حتى لو لم يتم استخدامه في جريمة. ويقع هنا تحدٍ أخلاقي أوسع: كيف نوازن بين حرية الابتكار التقني، وحق الإنسان في عدم التلاعب بهويته؟

✅ نقطة فلسفية:

إذا كان الوجه مملوكا لصاحبه، فهل الصوت كذلك؟ وإذا وُجد نموذج صوتي لشخص ما على الإنترنت، فهل يصبح ملكا عاما أم أنه يظل مشمولا بحقوق الخصوصية؟

تزايدت في السنوات الأخيرة الأصوات المطالبة بـسنّ قوانين جديدة تنص على “حق الإنسان في صوته”، بحيث يُمنع استخدامه أو استنساجه دون تصريح صريح وموثق. وتشمل بعض المقترحات:

5- الدور المحتمل للأخلاقيات الرقمية

في غياب تشريعات مُحدّثة، يمكن أن تلعب الأخلاقيات الرقمية (Digital Ethics) دورا تنظيميا مؤقتا. إذ يُمكن للمؤسسات، والشركات، والمستخدمين أنفسهم، الالتزام بـمواثيق شرف رقمية، تمنع استخدام هذه التقنيات في أي سياق ينتهك خصوصية أو سمعة الأفراد.

✅ على سبيل المثال:

شركة “Resemble AI” تتطلب من المستخدمين تحميل دليل صوتي من صاحب الصوت مع إذن واضح بالاستخدام قبل السماح بإنشاء نسخة صوتية مطابقة، في محاولة لوضع أخلاقيات داخلية قبل فرض قوانين خارجية.

الإجابة باختصار: نعم، وبشكل عاجل. التطور السريع في أدوات الذكاء الاصطناعي الصوتي فرض واقعا قانونيا جديدا يتجاوز قدرات القوانين التقليدية. وعلى الدول والمجتمعات أن تُبادر بوضع تشريعات خاصة لحماية “الهوية الصوتية“، جنبا إلى جنب مع تعزيز الوعي الرقمي، وتطوير أدوات تحقق قادرة على التمييز بين الصوت الحقيقي والمُستنسخ.

مع تزايد دقة نماذج الذكاء الاصطناعي في تقليد الأصوات، تزداد أيضا الحاجة إلى تقنيات مضادة قادرة على التمييز بين الصوت البشري الحقيقي والصوت المُولد آليا. وكما أن هناك سباقا في تطوير أنظمة الاستنساخ الصوتي، هناك أيضا سباق موازٍ لتطوير آليات كشف التزييف الصوتي (Voice Deepfake Detection)، خصوصا في ظل التهديدات الأمنية والإعلامية والقانونية المرتبطة بهذه الظاهرة.

قبل التطرق إلى أدوات الكشف، من المهم فهم بعض الخصائص التقنية التي تميز الأصوات المستنسخة عن الحقيقية:

مع تقدم التقنية، قد تختفي هذه الفروقات تدريجيا، لذا لا بد من حلول أكثر تطورا.

2- أدوات كشف تزييف الصوت: من التحليل الطيفي إلى الذكاء الاصطناعي العكسي

✅ أبرز الأدوات والتقنيات الحديثة في كشف الأصوات المزيفة تشمل:

  1. تحليل الطيف الترددي (Spectrogram Analysis):
    يُستخدم لرصد التشوهات الدقيقة في توزيع الترددات الصوتية، والتي عادة ما تختلف بين الأصوات الحقيقية والمولدة اصطناعيا.
  2. التعلم العميق المضاد (Adversarial Neural Networks):
    نماذج ذكاء اصطناعي مدربة على التمييز بين أصوات بشرية وأخرى مزيفة، باستخدام قواعد بيانات ضخمة من كلا النوعين.
  3. برمجيات متخصصة في تحليل السمات الحيوية للصوت (Vocal Biometrics):
    تقارن النمط الحيوي للصوت (biometric voiceprint) مع قاعدة بيانات لصوت الشخص الحقيقي، مما يسمح بكشف الانتحال.
  4. مؤشرات الدقة الصوتية (Audio Consistency Markers):
    تُقارن عناصر مثل صدى الصوت، جودة التسجيل، التوافق الزمني مع بيئة التسجيل، وكلها قد تكشف التزوير.
  5. أدوات مفتوحة المصدر وأكاديمية:
    • [ASVSpoof Toolkit]: منصة بحثية متخصصة في كشف تزييف الصوت.
    • [Resemble Detect]: أداة تجارية توفر خدمات فحص الأصوات المستنسخة.

3- نماذج تجارية تقدم خدمات فحص الأصوات

بعض الشركات الكبرى بدأت في تقديم حلول تجارية لاكتشاف الأصوات المزيفة، ودمجها ضمن منظومات الحماية الخاصة بها، خاصة في القطاع المالي والإعلامي.

الأداة الجهة المطورة الاستخدام المميزات
Resemble Detect Resemble AI فحص التسجيلات المشبوهة دعم API – تحليل سريع
Microsoft Azure Speaker Recognition مايكروسوفت التحقق البيومتري من المتحدثين تكامل مع منصات أخرى
Pindrop شركة أمن رقمي الحماية الصوتية للبنوك ومراكز الاتصال دقة عالية في الكشف الصوتي

4- دور الذكاء الاصطناعي المضاد: نماذج تكشف زيف نماذج أخرى

ظهر توجه حديث نحو تطوير نُظم ذكاء اصطناعي مضادة Anti-AI، وظيفتها الوحيدة هي كشف ناتج الذكاء الاصطناعي الآخر، ضمن ما يُعرف بـ”أمن الذكاء الاصطناعي (AI Security)”. وتُدرّب هذه النماذج على آلاف السجلات المزيفة، لتتعلم الأنماط المخفية التي لا يمكن للإنسان ملاحظتها.

✅ مثال: أحد الأبحاث المنشورة سنة 2024 طوّر نموذجا يُمكنه كشف الأصوات المزيفة بنسبة دقة تفوق 91% حتى في حال تطابقها شبه الكامل مع الصوت الأصلي.

5- ضعف الوعي والتقنيات في العالم العربي

للأسف، لا تزال أدوات كشف التزييف الصوتي في العالم العربي نادرة، سواء على مستوى المؤسسات الإعلامية أو القانونية أو الأمنية. ويُعزى ذلك إلى غياب الاستثمار في هذا النوع من التكنولوجيا، وقلة المحتوى الصوتي العربي المُخصص لتدريب نماذج كشف التزييف، مما يفتح المجال واسعا لاختراقات إعلامية وأمنية قد تكون كارثية.

بينما تزداد قدرة الذكاء الاصطناعي على خداع آذاننا، تزداد في المقابل الحاجة إلى أدوات قادرة على حماية “الحقيقة الصوتية”. الكشف عن الأصوات المزيفة لم يعد خيارا تقنيا، بل أصبح ضرورة أمنية، ومهنية، وقانونية، تتطلب تعاونا متعدد الأطراف بين مطوري التقنية، والباحثين، وصناع القرار.

في عالمٍ باتت فيه الأصوات المزيّفة قابلة للإنتاج ببضع نقرات فقط، لم تعد الإجراءات التقليدية كافية لحماية الأفراد والمؤسسات من التلاعب الصوتي. ولذلك، أصبح من الضروري تطوير واتباع استراتيجيات متعددة المستويات تشمل البعد التقني، القانوني، السلوكي، والتوعوي. هذا المحور يتناول بعمق كيف يمكننا بناء دفاعات شاملة وفعالة ضد خطر انتحال الصوت.

1- التوعية المجتمعية والفردية

لا تنفع أقوى الأدوات التقنية إذا كان الأفراد لا يُدركون وجود الخطر. ولذلك، فإن التوعية الرقمية هي خط الدفاع الأول.

2- تأكيد الهوية الصوتية عبر القنوات الثنائية

تقليد الصوت وحده لا يجب أن يكون كافيا لإثبات الهوية. ولذلك، توصي الجهات الأمنية باستخدام قنوات تحقق مزدوجة:

⚠️ من المبادئ الذهبية: لا تثق بالصوت فقط. احصل دائما على تحقق ثانٍ.

3- التطعيم التقني للبنية التحتية الصوتية

المؤسسات المالية والإعلامية والحكومية بحاجة ماسة إلى تحديث بنيتها التكنولوجية لمواجهة التزييف الصوتي:

4- سياسات حماية في منصات التواصل والتطبيقات

منصات مثل WhatsApp، Telegram، Discord، وغيرها، أصبحت نقاط دخول خطيرة للهجمات الصوتية، ولذلك:

5- الأطر القانونية والمؤسساتية للردع

حتى وإن ثبت التزييف الصوتي، يبقى الرد القانوني عليه ضعيفا في كثير من البلدان. لذلك من الضروري:

6- تطوير أدوات مضادة باللغة العربية

حتى الآن، معظم أدوات كشف الأصوات المزيفة لا تعمل بكفاءة في اللغة العربية، وهو أمر بالغ الخطورة. لذا، ينبغي:

نحتاج إلى جدار صوتي مضاد

لا يمكن لأي مجتمع اليوم أن يكتفي بالمراقبة أو الإنكار في مواجهة التزييف الصوتي. المطلوب هو جدار صوتي مضاد (Acoustic Firewall)، مكوّن من:

فقط بهذه العناصر مجتمعة يمكننا أن نحمي الذوات والأصوات والهويات في عصر الذكاء الاصطناعي المقلّد.

لقد دخلنا مرحلة دقيقة في تطور الذكاء الاصطناعي، حيث لم تعد قدرة هذه التكنولوجيا مقتصرة على التنبؤ أو التحليل، بل تعدّتها إلى القدرة على تقليد الإنسان نفسه – صوته، طريقته، ونبرته – بشكل يصعب تمييزه عن الحقيقي. وهذا يفتح بابا جديدا للمخاطر الأخلاقية والأمنية والاجتماعية.

تكشف هذه الدراسة أن تقليد الأصوات (Voice Cloning) تجاوز حدود التجريب التقني ليتحوّل إلى أداة مزدوجة الاستخدام: فمن جهة، يمكن توظيفها في العلاج الصوتي أو دعم ذوي الاحتياجات الخاصة، ومن جهة أخرى، يمكن تسخيرها في الابتزاز الرقمي، التلاعب الإعلامي، والتضليل السياسي.

ومع انعدام القوانين الصريحة في أغلب دول العالم العربي، وضعف أدوات الكشف الصوتي باللغة العربية، وغياب التوعية، فإن المجتمعات تصبح عُرضة للاختراق المعنوي من خلال صوت قد يبدو مألوفا لكنه يحمل رسائل مزيفة.

إن الحماية من هذا الخطر لا يمكن أن تكون تقنية فقط، ولا قانونية فقط، ولا فردية فقط. بل يجب أن تقوم على منظومة متكاملة متعددة المحاور تشمل:

ففي زمن صار فيه الصوت نفسه قابلا للتزييف، فإن اليقظة الصوتية يجب أن تصبح وعيا جماعيا.

الأسئلة الشائعة (FAQ)

1. ما هو تقليد الصوت أو الاستنساخ الصوتي بالذكاء الاصطناعي؟

هو استخدام نماذج تعلم عميق لتقليد صوت شخص معين، بعد تدريبه على تسجيلات صوتية له، بهدف إنتاج كلام جديد وكأنه صُدر عن ذلك الشخص.

2. ما مدى دقة هذه الأصوات؟

في بعض النماذج الحديثة، تصل الدقة إلى أكثر من 90٪، ويصعب أحيانا على حتى أفراد العائلة التفريق بين الصوت الحقيقي والمزيف.

3. هل توجد أدوات عربية لكشف تقليد الصوت؟

حتى الآن، لا توجد أدوات عربية فعالة بالكامل. أغلب أدوات الكشف الصوتي موجهة للغة الإنجليزية، مما يستدعي تطوير أدوات خاصة باللهجات العربية.

4. كيف يمكنني أن أحمي نفسي من الوقوع ضحية لانتحال صوتي؟

5. هل القانون يعاقب على هذا الفعل؟

في معظم الدول، لا توجد قوانين واضحة ومباشرة تخص “تقليد الأصوات”، بل تُعامل القضايا في إطار عام كـ”الاحتيال” أو “التشهير”، مما يُضعف الردع القانوني.

6. ما هي الجهات المعنية التي يجب أن تطور أدوات الحماية؟

7. هل هذه التقنيات ستزداد خطورة في المستقبل؟

نعم، فمع تطور نماذج التعلّم الذاتي، ستُصبح الأصوات المزيفة أكثر إقناعا، وستُدمج مع الفيديو والتزييف البصري، مما يعقّد من مهمة الكشف والردع.

ندعو من خلال منصة بالعربية للدراسات والأبحاث الأكاديمية كلّ من يشتغل في مجالات الأمن السيبراني، الإعلام، الأخلاق الرقمية، والتقنية، إلى:

مراجع ومصادر:

  1. Veerasamy, “Rising Above Misinformation and Deepfakes,” Proceedings of the ICCWS, 2022. نشر عبر ResearchGate (PDF). متوفّر هنا:
    https://pdfs.semanticscholar.org/6b5d/6d5709647a3e9ee716852b68768f3aa519e3.pdf (pdfs.semanticscholar.org)

  2. Wang, Run, Felix Juefei‑Xu, Yihao Huang, Qing Guo, Xiaofei Xie, Lei Ma، وYang Liu، “DeepSonar: Towards Effective and Robust Detection of AI‑Synthesized Fake Voices,” في Proceedings of the 28th ACM International Conference on Multimedia (MM ’20)، 12 أكتوبر 2020. DOI: 10.1145/3394171.3413716. متوفّر PDF عبر ArXiv وACM: https://arxiv.org/abs/2005.13770 (arxiv.org).
  3. Wang, Xin, et al., “ASVspoof 2019: A Large‑Scale Public Database of Synthesized, Converted and Replayed Speech,” في arXiv, 5 نوفمبر 2019.
    https://arxiv.org/abs/1911.01601 (arxiv.org)
  4. Alzantot, Moustafa, Ziqi Wang، وMani B. Srivastava، “Deep Residual Neural Networks for Audio Spoofing Detection,” arXiv, 30 يونيو 2019.
    https://arxiv.org/abs/1907.00501 (arxiv.org)
  1. Mirsky, Yisroel، et al., “DF‑Captcha: A Deepfake Captcha for Preventing Fake Calls,” SemTech Review, 2020. متوفّر PDF عبر Semantic Scholar.
    https://www.semanticscholar.org/paper/DF-Captcha%3A-A-Deepfake-Captcha-for-Preventing-Fake-Mirsky/36c78c7179ec2df5bbe30cd71f6c85920c3ef6b9 (semanticscholar.org)
  2. RAND Corporation, “Artificial Intelligence, Deepfakes, and Disinformation: A Primer,” 2022. متوفر عبر RAND (PDF).
    https://www.rand.org/content/dam/rand/pubs/perspectives/PEA1000/PEA1043-1/RAND_PEA1043-1.pdf (rand.org).
  3. Hajek, et al., “Deepfakes, Misinformation, and Disinformation in the Era of Frontier AI,” IEEE ICCA, 2023. متوفر عبر ArXiv (PDF).
    https://arxiv.org/pdf/2311.17394 (arxiv.org)
  4. Associated Press, “New AI voice‑cloning tools ‘add fuel’ to misinformation fire,” 10 فبراير 2023.
    https://apnews.com/article/26cabd20dcacbd68c8f38610fec39f5b (apnews.com)

Exit mobile version