Son araştırmalar, yapay zeka araçlarının mantıksız ve basit hatalara meyilli olduğunu gösterdi. Detaylar haberimizde…
Yapılan son araştırmalar, yapay zeka modellerinin mantıksız eğilimleri ve insanlar kadar etkili olamama sorunlarına işaret ediyor. University College London’daki araştırmacılar, yapay zekanın insan mantığıyla rekabet edebilme yeteneğini test etmek için bir dizi klasik test uyguladılar.
Araştırmacılar, yapay zeka modellerinin, insanların mantığıyla uyumlu olmadığını ve çoğu zaman basit hatalara meyilli olduğunu belirledi. Özellikle, Meta’nın Lama modeli, sesli ve sessiz harfleri karıştırarak mantıksal olarak doğru olsa bile yanlış cevaplar verdi.
YAPAY ZEKA TESTLERİNDE BÜYÜK HATALAR
Bazı yapay zeka sohbet robotları ise, masum sorulara bile etik gerekçelerle cevap vermeyi reddetti. Araştırmacılar, bu durumun, yapay zekanın yanlış çalışan koruma özelliklerinden veya aşırı dikkatli olma eğiliminden kaynaklandığını düşünüyorlar.
ChatGPT-4, test edilen modeller arasında en yüksek doğruluk oranına sahip olsa da, araştırmacılar hala bu yapay zekanın doğru yanıtlarını nasıl sağladığını tam olarak anlayamadıklarını belirtiyorlar.
Araştırmacılar, bu sonuçların, yapay zeka modellerinin kritik uygulamalarda kullanılması durumunda potansiyel risklerini vurguladı. Bu çalışma, yapay zekanın insan düşüncesiyle rekabet edebilme yeteneğine ilişkin umutları azaltabilir.