تتعاون Microsoft مع MITER غير الربحية ومجموعة من الشركات التقنية لتقليل التهديدات التي تتعرض لها أنظمة التعلم الآلي.
أصدرت المجموعة مصفوفة مخاطر ML Threat التي تركز على الصناعة والمفتوحة المصدر ، للمساعدة في اكتشاف التهديدات لبرامج التعلم الآلي والاستجابة لها ومعالجتها.
تم تشكيل MITER في عام 1958 للمساعدة في تشغيل مشروع SAGE التابع لسلاح الجو الأمريكي ، والذي أدى إلى اختراقات في الحوسبة والشبكات نظرًا لمتطلباتها في جمع ومعالجة بيانات الرادار من جميع أنحاء العالم ، حيث كانت تبحث عن علامات هجوم نووي سوفيتي.
توسعت MITER منذ ذلك الحين إلى منظمة أكبر وأكثر ضبابية تعمل بشكل أساسي كمقاول عسكري واستخباراتي أمريكي ، بالإضافة إلى مشغل لمراكز البحث والتطوير الممولة اتحاديًا (FFRDCs).
بصفتها المشغل لـ National Cybersecurity FFRDC ، ومقاول رئيسي للأمن السيبراني ، قامت المنظمة غير الربحية منذ فترة طويلة بتمويل الأبحاث في مجال الأمن. منذ عام 2013 ، قامت بتشغيل MITER ATT & CK ، وهو إطار لتتبع الهجمات الإلكترونية التي تم تبنيها على نطاق واسع من قبل مجتمع الأمن.
قالت Microsoft و MITER إنهما صمما مصفوفة Adversarial ML Threat Matrix بعد ATT & CK ، حيث أن محللي الأمان هم الجمهور الأساسي للإطار.
قال رام شانكار سيفا كومار ونائب الرئيس آن جونسون "رعاة البقر" من مايكروسوفت في منشور على مدونة أنه من الضروري إقناع محللي الأمن بمجازفة التعلم الآلي على محمل الجد.
وقالوا: "أشار المسح الذي أجريناه إلى تنافر معرفي ملحوظ خاصة بين محللي الأمن الذين يعتقدون عمومًا أن الخطر على أنظمة ML هو مصدر قلق مستقبلي". "هذه مشكلة لأن الهجمات الإلكترونية على أنظمة تعلم الآلة في تصاعد الآن."
في السنوات القادمة ، من المتوقع أن يسرق المهاجمون بشكل متزايد نماذج الذكاء الاصطناعي ، أو تسميم بيانات التدريب ، أو يستخدمون عينات عدائية لمهاجمة الأنظمة التي تعمل بالذكاء الاصطناعي.
يتطور مجال الذكاء الاصطناعي العدائي بسرعة ، لذلك لجأت MITER و Microsoft إلى جامعة تورنتو ، وجامعة كارديف ، ومعهد هندسة البرمجيات في جامعة كارنيجي ميلون ، للمساعدة في تطوير الدفاعات ضد الهجمات الأكثر تطورًا.
يشمل الشركاء الآخرون Bosch و IBM و Nvidia و Airbus و Deep Instinct و Two Six Labs و PWC و Berryville Institute of Machine Learning.
في منشور على موقع MITRE على الويب ، جادل ميكيل رودريغيز ، رئيس أبحاث علوم القرار بالشركة ، بأننا في نفس المرحلة مع الذكاء الاصطناعي التي كنا عليها مع الإنترنت في الثمانينيات. في ذلك الوقت ، كما قال ، كان التركيز فقط على جعل الإنترنت يعمل ، وليس على الأمن ، "ونحن ندفع الثمن منذ ذلك الحين".
ينصب معظم التركيز على الذكاء الاصطناعي بشكل متساوٍ على إنجاحه ، مع عدم إيلاء الاعتبار الكافي للآثار الأمنية. قال رودريغيز: "النبأ السار في الذكاء الاصطناعي هو أنه من المحتمل ألا يكون الأوان قد فات".
"لذلك ، أنا متحمس للعمل على هذه المصفوفة بشأن التحديات التقنية المتعلقة بالأمن والخصوصية والسلامة. في حين أنه سيكون هناك الكثير من المشكلات الكبيرة التي تنتظرنا والتي لا نتعامل معها بهذه المبادرة - سنقوم بمعالجة هذا النوع من الأساسيات التي تم تجاهلها خلال الأيام الأولى للإنترنت
المصدر aibussiness للتفاصيل هنا