آخر تحديث GMT 07:01:18
اليمن اليوم-

يمكن صنع لقطات مزيفة عن طريق التلاعب

التقنيات التكنولوجية الحديثة تهدد مصداقية كبار الشخصيات والزعماء

اليمن اليوم-

اليمن اليوم- التقنيات التكنولوجية الحديثة تهدد مصداقية كبار الشخصيات والزعماء

Face2Face يتيح لك العرائس للمشاهير وللسياسيين
واشنطن ـ رولا عيسى

في عصر الفوتوشوب والفلاتر ومواقع التواصل الاجتماعي، فالكثير منا لا يستطيع رؤية  التلاعب في الصور فتصبح المواضيع أقل حجمًا وأكثر سلاسة، أما في حالة "سناب شات"، فتتحول الصور من صور أشخاص إلى جراء صغيرة، ومع ذلك، فهناك سلالة جديدة من أدوات التلاعب في الفيديو والصوت، حققت المستحيل من خلال التقدم في الذكاء الاصطناعي ورسومات الكمبيوتر والتي من شأنها تخلق لقطات تبدو واقعية للشخصيات العامة يمكنها أن تفعل أي شيء.

التقنيات التكنولوجية الحديثة تهدد مصداقية كبار الشخصيات والزعماء

 

على سبيل المثال، ترامب يعلن ميله للرياضات المائية، وهيلاري كلينتون تكشف أنها تحافظ على تأمينها في قبو النبيذ، وتوم كروز اعترف أخيرا أنه بروني.. هذا هو مستقبل الأخبار المزيفة، لقد قيل لنا منذ زمنًا طويلا أن لا نصدق كل ما نقرأه، ولكن سرعان ما سيكون علينا أن نتساءل عن  ما نراه ونسمعه أيضًا، ففي الوقت الراهن، هناك العديد من فرق البحث تعمل عل تحليل مختلف العناصر البصرية والصوتية للسلوك البشري، وقد تم تطويرها البرمجيات في جامعة "ستانفورد" القادرة على التلاعب لقطات الفيديو للشخصيات العامة للسماح لشخص آخر بالتحكم فيما يقولون - فتقوم البرمجيات بنقل تعبيرات الوجه من شخص لشخص آخر مع تغير وإضافة بعض الكلمات، وأظهر فريق البحث التكنولوجيا الخاصة بهم من قبل أشرطة الفيديو العرائس من جورج بوش، فلاديمير بوتين ودونالد ترامب، من تلقاء نفسها، Face2Face  ومع ذلك فان ألعوبة نقل الوجه بتعبيراته " فيس تو فيس" هي ممتعة لخلق الميمات ومسلية في وقت متأخر من المضيفين حواري ليلا. 

التقنيات التكنولوجية الحديثة تهدد مصداقية كبار الشخصيات والزعماء


 
ويعمل فريق بحث في جامعة ألاباما في برمنجهام على انتحال الصوت، مع 3-5 دقائق من صوت الضحية - تؤخذ مباشرة أو من أشرطة فيديو "يوتيوب" أو البرامج الإذاعية - فيمكن للمهاجم خلق صوت توليف الزى يمكن أن تخدع كل من البشر وأنظمة الأمن البيومترية الصوت المستخدمة من قبل بعض البنوك والهواتف الذكي، كما  يمكن للمهاجم التحدث إلى ميكروفون وسوف البرنامج تحويله بحيث الكلمات سليمة كما يتم التحدث بها من قبل الضحية - سواء كان ذلك عبر الهاتف أو على برنامج إذاعي
وقد طورت شركة ليريبيرد الكندية قدرات مماثلة، والتي تقول أنها يمكن أن تستخدم لتحويل النص على الفور "قراءة" من قبل أصوات شهيرة أو لشخصيات في ألعاب الفيديو، وعلى الرغم من أن نواياها قد تكون ذات معنى جيد، فإن تقنية تحويل الصوت يمكن أن تقترن بتكنولوجيا وتحوير الوجه لخلق بيانات وهمية مقنعة من الشخصيات العامة، فعليك أن تنظر في مشروع جامعة أوباما، حيث  قاموا بأخذ الصوت من خطب أوباما واستخدموه لتحريك وجهه في فيديو مختلف تماما بدقة لا تصدق للحصول على شعور.
 وقال نيتش ساكسينا، الأستاذ المساعد ومدير الأبحاث في جامعة ألاباما في قسم علوم الحاسب الآلي في برمنجهام، إنه بالإضافة إلى الأخبار المزيفة هناك العديد من الآثار الأخرى. "هل يمكنك ترك رسائل صوتية وهمية تشكل كأم لشخص ما أو تشويه سمعة شخص ما نشر عينات الصوت عبر الإنترنت."
وتعبر تقنيات مورفينغ ليست تقنيات مثالية بعد، فقد تبدو تعبيرات الوجه في أشرطة الفيديو مشوهة أو غير طبيعية قليلا، ويمكن أن تبدو الأصوات روبوتية قليلا، ولكن مع الوقت، سوف تكون قادر على إعادة العب في  الصوت أو مظهر شخص - إلى درجة قد يكون من الصعب جدا على البشر للكشف عن الاحتيال نظرا لتآكل الثقة في وسائل الإعلام وانتشار الخداع المتفشي عبر وسائل التواصل الاجتماعي، سيصبح من المهم بالنسبة للمؤسسات الإخبارية أن تدقق في المحتوى.
 
 وأوضح ماندي جينكينز، من شركة "ستوريفول" الإخبارية الاجتماعية، وهي شركة متخصصة في التحقق في المحتوى ،أن الناس يجب أن ينظروا أيضا إلى الإضاءة والظلال في الفيديو، وما إذا كانت جميع العناصر الواردة في الإطار في حجمها الصحيح، وما إذا كان الصوت متزامنا تماما محتوى الأخبار فالمحتوى الذي تم العبث  فيه لا يمكنه ان يمر من غرفه التحقق من الأخبار ولكنه إذا انتشر على مواقع التواصل الاجتماعي يمكن أن يسبب كارثة سياسية آو دبلوماسية  فتخيل ترامب وهو يعلن الحرب على كوريا الشمالية، مضيفًا :"إذا كان شخص ما يبدو مثل ترامب ويتحدث مثل ترامب فسوف يعتقد أنه ترامب

 

alyementoday
alyementoday

الإسم *

البريد الألكتروني *

عنوان التعليق *

تعليق *

: Characters Left

إلزامي *

شروط الاستخدام

شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

اُوافق على شروط الأستخدام

Security Code*

 

التقنيات التكنولوجية الحديثة تهدد مصداقية كبار الشخصيات والزعماء التقنيات التكنولوجية الحديثة تهدد مصداقية كبار الشخصيات والزعماء



إطلالة لافتة وجريئة لنسرين طافش في مهرجان كان السينمائي

القاهرة - اليمن اليوم

GMT 21:15 2020 السبت ,18 كانون الثاني / يناير

يحالفك الحظ في الأيام الأولى من الشهر

GMT 17:12 2019 الأحد ,15 كانون الأول / ديسمبر

أبرز الأحداث اليوميّة لمواليد في كانون الأول 2019

GMT 21:18 2020 السبت ,18 كانون الثاني / يناير

لا تتردّد في التعبير عن رأيك الصريح مهما يكن الثمن

GMT 04:34 2017 الإثنين ,18 كانون الأول / ديسمبر

ابتعدي عن الألوان الكلاسيكية في حجرة نومك

GMT 22:07 2017 الثلاثاء ,07 شباط / فبراير

تناول العنب يجنب مخاطر الوقوع فريسة لـ"الزهايمر"

GMT 11:17 2017 الأربعاء ,01 تشرين الثاني / نوفمبر

الألوان تفرض نفسها بأشكال مختلفة على ديكور المنزل

GMT 20:33 2019 الأربعاء ,20 شباط / فبراير

تعرف على كيفية استخدام خرائط غوغل من دون إنترنت

GMT 19:58 2017 الأربعاء ,21 حزيران / يونيو

دعاء صلاح تعود إلى برنامجها من جديد "مع دودي"

GMT 15:37 2016 الثلاثاء ,29 آذار/ مارس

السجن المؤبد لاربعة اشخاص في البحرين

GMT 03:06 2016 الأربعاء ,30 آذار/ مارس

كيف تحلين المشاكل والخلافات بين أبنائك؟

GMT 08:50 2017 الجمعة ,27 كانون الثاني / يناير

عطر jean patou المتألق يهبُ المرأة سحرًا غامضًا
 
alyementoday

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

alyementoday alyementoday alyementoday alyementoday
alyementoday alyementoday alyementoday
alyementoday
بناية النخيل - رأس النبع _ خلف السفارة الفرنسية _بيروت - لبنان
alyemen, Alyemen, Alyemen