أصدرت الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) تقريرًا جديدًا يناقش التحيز في أنظمة الذكاء الاصطناعي، مع التركيز على التحديات الأخلاقية والتقنية.
وأوضح التقرير أن التحيز ينشأ من بيانات غير متوازنة أو خوارزميات غير عادلة، مما يؤثر على قرارات الذكاء الاصطناعي في مجالات مثل الصحة والتمويل والتوظيف.
تعمل “سدايا” على تقليل التحيز عبر تطوير معايير أخلاقية وأدوات قياس الامتثال. كما أنشأت مركز أبحاث وأخلاقيات الذكاء الاصطناعي (ICAIRE) بالشراكة مع اليونسكو.
ويتضمن التقرير حلولًا عملية مثل تحسين جودة البيانات، وتطوير خوارزميات عادلة، ومراقبة النماذج باستمرار لضمان الدقة والحياد.
وأكدت “سدايا” أهمية تنويع فرق تطوير الذكاء الاصطناعي، وتعزيز حوكمة البيانات، وحماية خصوصية المستخدمين لضمان تطبيقات عادلة ومسؤولة.