نموذج رياضي جديد يعزز تقييم مخاطر التعرف على الذكاء الاصطناعي، ويقدم حلآ قابلآ للتطوير لتحقيق التوازن بين الفوائد التكنولوجية وحماية الخصوصية كما يتم إستخدام أدوات الذكاء الإصطناعي بشكل متزايد لتتبع الأشخاص ومراقبتهم سواء عبر الإنترنت أو شخصيآ، لكن فعاليتها تنطوي على مخاطر كبيرة، ولمعالجة هذه المشكلة، قام علماء الكمبيوتر من معهد أكسفورد للإنترنت، وكلية إمبريال كوليدج لندن، وجامعة كاليفورنيا في لوفان بتطوير نموذج رياضي جديد مصمم لمساعدة الناس على فهم مخاطر الذكاء الإصطناعي بشكل أفضل ودعم الهيئات التنظيمية في حماية الخصوصية ونشرت النتائج التي توصلوا إليها في مجلة Nature Communications
هذا النموذج هو الأول من نوعه الذي يقدم إطارآ علميآ قويآ لتقييم طرق تحديد الهوية، خاصة عند التعامل مع البيانات الضخمه ويمكنه تقييم دقة تقنيات مثل رموز الإعلان وأجهزة التتبع غير المرئية في تحديد المستخدمين عبر الإنترنت بناءآ على الحد الأدنى من المعلومات - مثل المناطق الزمنية أو إعدادات المتصفح - وهي عملية تُعرف باسم "بصمات المتصفح"
وقال مؤلف البحث الدكتور "لوك روشيه" زميل أبحاث أول في معهد أكسفورد للإنترنت، وهو جزء من جامعة أكسفورد: "إننا نرى طريقتنا كنهج جديد للمساعدة في تقييم مخاطر إعادة تحديد الهوية في إصدار البيانات، ولكن أيضا لتقييم تقنيات تحديد الهوية الحديثة في البيئات الحرجة وعالية المخاطر وفي أماكن مثل المستشفيات، أو توصيل المساعدات الإنسانية، أو مراقبة الحدود، تكون المخاطر كبيرة بشكل لا يصدق، والحاجة إلى تحديد هوية دقيقة وموثوقة أمر بالغ الأهمية
إن الإستفادة من إحصائيات "بايزي" لتحسين الدقة حيث تعتمد هذه الطريقة على مجال الإحصاءات "البايزية" لمعرفة مدى إمكانية التعرف على الأفراد على نطاق صغير، وإستقراء دقة تحديد الهوية لمجموعات أكبر من السكان بما يصل إلى 10 مرات أفضل من الإستدلال والقواعد العامة السابقة وهذا يمنح الطريقة قوة فريدة في تقييم كيفية أداء تقنيات تحديد البيانات المختلفة على نطاق واسع، في تطبيقات وإعدادات سلوكية مختلفة و يمكن أن يساعد هذا في تفسير سبب أداء بعض تقنيات تحديد الهوية بالذكاء الإصطناعي بدقة عالية عند إختبارها في دراسات حالة صغيرة، ولكنها تخطئ بعد ذلك في التعرف على الأشخاص في ظروف العالم الحقيقي
0 تعليقات