Bəzi süni intellekt modellərinin qərəzli cavablar verdiyi müəyyən edilib
Bəzi süni intellekt söhbət robotlarının mədəniyyət, cinsiyyət və irqə dair suallara qarşı qərəzli cavablar verdiyi müəyyən edilib.
“The Straits Times” qəzetinin xəbərinə görə, Sinqapurun İnformasiya-Kommunikasiya Mediasının İnkişafı İdarəsi və beynəlxalq süni intellekt audit şirkəti “Humane Intelligence” tərəfindən aparılan araşdırmada Böyük Dil Modellərinə mədəniyyət, dil, sosial-iqtisadi vəziyyət, cinsiyyət, yaş və irqə dair suallar ünvanlanaraq onların qərəzli yanaşması test edilib.
54 kompüter və humanitar elmlər üzrə mütəxəssis, eləcə də 300 onlayn iştirakçının qatıldığı araşdırmada “Meta”nın inkişaf etdirdiyi “Llama 3.1”, “Amazon” tərəfindən dəstəklənən “Claude-3.5”, Kanadanın süni intellekt startapı “Cohere for AI” tərəfindən hazırlanan “Aya” və “AI Singapore” tərəfindən yaradılan “Sea Lion” modeli təhlil edilib.
Bu modellərin Asiya dillərində sorğulandıqda irqçi və mədəni baxımdan "təhqiredici" cavablar verdiyi müəyyən olunub. Sözügedən dörd süni intellekt modeli tərəfindən yaradılan 5 min 313 cavabın yarısından çoxunun "qərəzli" olduğu aşkar edilib. Araşdırma nəticəsində regional dillərdə süni intellekt tərəfindən yaradılan hər üç cavabdan ikisinin, ingilis dilində verilən cavabların isə təxminən yarısının "qərəzli" olduğu ortaya çıxıb.
Bundan əlavə, süni intellekt modellərinin ən çox cinsiyyət stereotiplərində qərəzli olduğu, qadınları "baxıcılıq" və "ev işləri" ilə, kişiləri isə "iş həyatında" təsvir etdiyi müəyyən edilib.
Vyetnam 8 milyard dollarlıq dəmir yolu...
Qazaxıstan 80 yeni ölkə ilə hava əlaqəsi...
Geyinilə bilən tibbi cihazla hormon...
Bu axşam İstanbulda qar fırtınası...
Etna vulkanı püskürüb...