تعرف على برنامج PhotoGuard من MIT.. يحمى صورك من تعديلات الذكاء الاصطناعى الضارة
طلق معهد ماساتشوستس تقنية برنامج PhotoGuard الجديدة يحمى صورك بتقنيات جديدة من تعديلات الذكاء الاصطناعى الضارة والتلاعب فى شكل الصورة.
وذكر موقع engadget، تكتسب روبوتات الدردشة عبر الإنترنت القدرة على تحرير الصور وكذلك إنشائها مع أمثال Shutterstock وAdobe الرائدة، ولكن مع هذه الإمكانات الجديدة المدعومة بالذكاء الاصطناعي، تأتي عيوب مألوفة، مثل التلاعب غير المصرح به أو السرقة التامة للأعمال الفنية والصور الموجودة على الإنترنت، يمكن لتقنيات العلامات المائية أن تساعد في التخفيف من هذا الأخير، في حين أن تقنية "PhotoGuard" الجديدة التي طورها معهد ماساتشوستس للتكنولوجيا CSAIL يمكن أن تساعد في منع الأول.
ويعمل برنامج PhotoGuard عن طريق تغيير وحدات البكسل المحددة في صورة ما بحيث تعطل قدرة الذكاء الاصطناعي على فهم ماهية الصورة. هذه "الاضطرابات"، كما يشير إليها فريق البحث، غير مرئية للعين البشرية ولكن يمكن للآلات قراءتها بسهولة.
وتستهدف طريقة الهجوم "المشفر" لإدخال هذه القطع الأثرية التمثيل الكامن للنموذج الخوارزمي للصورة الهدف - الرياضيات المعقدة التي تصف موضع ولون كل بكسل في الصورة - تمنع بشكل أساسي الذكاء الاصطناعي من فهم ما تبحث عنه.
وطريقة الهجوم "الانتشار" الأكثر تقدمًا والمكثفة من الناحية الحسابية تخفي صورة كصورة مختلفة في عيون الذكاء الاصطناعي، وسيحدد الصورة المستهدفة ويحسن الاضطرابات في صورتها بحيث تشبه هدفها، وسيتم تطبيق أي تعديلات يحاول الذكاء الاصطناعي إجراؤها على هذه الصور "المحصنة" على الصور "المستهدفة" المزيفة مما يؤدي إلى إنشاء صورة غير واقعية المظهر.
وقال طالب الدكتوراه في معهد ماساتشوستس للتكنولوجيا والمؤلف الرئيسي للورقة، هادي سلمان، لـ Engadget: "إن هجوم التشفير يجعل النموذج يعتقد أن صورة الإدخال (المراد تحريرها) هي صورة أخرى (مثل صورة رمادية)"، في حين أن هجوم الانتشار يجبر نموذج الانتشار على إجراء تعديلات على بعض الصور المستهدفة (والتي يمكن أن تكون أيضًا بعض الممثلين الرمادية أو العشوائية).
ويقدم النهج التعاوني الذي يشمل مطوري النماذج ومنصات الوسائط الاجتماعية وواضعي السياسات دفاعًا قويًا ضد التلاعب غير المصرح به بالصور، وقال سلمان في بيان إن العمل على هذه القضية الملحة له أهمية قصوى اليوم، وبينما يسعدني المساهمة في هذا الحل، هناك حاجة إلى الكثير من العمل لجعل هذه الحماية عملية، تحتاج الشركات التي تطور هذه النماذج إلى الاستثمار في هندسة التحصينات القوية ضد التهديدات المحتملة التي تشكلها أدوات الذكاء الاصطناعي هذه. "