Yapay Zekâ Destekli Google Arama, Hatalı Yanıtlarına Devam Ediyor: Pizzaya Yapıştırıcı Sürülmesini Söylüyor, Köprüden Atlama Tavsiyesi Veriyor

Google, geçtiğimiz hafta gerçekleştirdiği I/O etkinliğinde yapay zekâ destekli arama deneyimini ABD’de sunmaya başlamıştı. “AI Overviews” ismi verilen bu deneyimde yapay zekâ, kullanıcının yaptığı aramalara yanıtlar veriyor, onları ilgili linklere yönlendiriyordu. Ancak kullanıma sunulduğundan beri pek iyi sonuçlar vermemişti.

Daha birkaç gün önce sizlerle paylaştığımız bir haberde, özelliğin hatalı yanıtlar verdiğini görmüştük. Şimdi ise bu durumun devam ettiği ve çok ciddi yalan yanlış sonuçlar gösterdiği ortaya çıktı. Gelen tepkilerin ardından Google’dan da bir açıklama geldi.

Yapay zekâ, kullanıcılara “taş yemeyi” ve “pizzaya yapıştırıcı eklemeyi” önerdi

https://twitter.com/twitter/status/1793480607198323196

Sosyal medyada yayılan bu yanıtlar arasında gerçekten de çok tuhaf şeyler var. Örneğin bir kullanıcı, yapay zekâ destekli Google Arama’ya pizzanın üstündeki peynirin ayrılmaması için ne yapması gerektiğini sordu. Yapay zekâ da toksik olmayan bir yapıştırıcı eklemesini önerdi. Evet, yapıştırıcı. Tabii ki böyle bir şey kesinlikle yapılmamalı. Gelen bilgilere göre özellik, çok eskiden şaka amaçlı paylaşılan bir Reddit yorumundan yola çıkarak bu yanıtı vermiş.

Diğer örnekler de en az bunun kadar ilginç. Arama, bir yerde parodi bir haberden alıntı yaparak kullanıcıya taş yemesini öneriyor. Hatta bir kullanıcı, depresyonla ilgili soru sorduğu yapay zekânın kendisine ABD’deki Golden Gate Köprüsü’nden atlamasını önerdiğini bile söylüyor.

Google, gelen tepkilerin ardından bir açıklama yaptı. Şirket sözcüsü, hataların nedeninin genellikle “nadir sorgulardan” kaynaklandığını belirtti. Ayrıca çoğu insanın gerçek deneyimini yansıtmadığını söyleyerek bir nevi özelliği savundu. Bu örnekleri özelliği geliştirmek için kullanacaklarını da ekledi.

Google böyle dese de sonuçların endişe verici olduğunu söylememiz yanlış olmaz. Yapay zekâ destekli aramanın hâlâ deneysel olduğunu biliyoruz. O yüzden hata yapması normal karşılanabilir. Ancak böyle tamamen yanlış yanıtlar vermesi de kabul edilebilir değil. İlerleyen dönemlerde özelliğin geliştirilip Google’ın dediği gibi gerçekten daha iyi bir arama deneyimi sunup sunmayacağını bekleyip göreceğiz. Maalesef şu anda daha iyi demek mümkün değil.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir