Tin folyo kaplı bir kaya altında saklanmamışsanız, Apple’ın kendi yapay zekası – Apple Intelligence ile oyunun içine girdiğini biliyor olmalısınız. Apple, 10 Haziran’daki WWDC 2024 açılış konuşmasından bu yana, AI’ının rekabetten daha iyi olduğunu vurgulamaya devam etti, hatta ChatGPT ve sonunda Gemini ile işbirliği yapacak. Ancak Apple’ın bile çözemediği bir yaygın AI şikayeti var: doğruluk.
CEO Tim Cook’un The Washington Post ile yaptığı röportajda (makale ücrete tabi), “[Apple] bildiğimiz her şeyi yaptık” derken Apple Intelligence’ın mükemmel derecede doğru olacağını söyleyemediğini itiraf etti ve “Ben bunun çok yüksek kalitede olacağından eminim, ama dürüst olmak gerekirse yüzde 100’den kısa kalacağını söyleyebilirim.”
Bu, son aylarda gördüğümüz yüksek profilli AI hatalarının bazılarını düşünürsek gerçekçi bir beyandır. İlk olarak, Google’ın AI Overviews’leri vardı, hala deneysel bir özellik ancak ABD genelinde genişlemesinden sonra birçok yanlış veya garip sonuç verdi.
Sonra Şubat ayında ChatGPT’nin olağan dışı durduğu ve normalden daha ürkütücü olduğu bir gün vardı. Apple’ın Apple Intelligence ile oynaması, daha sınırlı cihaz içi AI işlemlerini kendisiyle ele alarak – ve ardından bulut sunuculara ihtiyaç duyan sorgular için sizi ChatGPT’ye yönlendirerek – bu yüksek profilli hatalardan ayrıştırmak gibi görünüyor. Bu akıllı bir hamle olabilir, ancak Apple bile AI destekli özelliklerinin bazı durumlarda raydan çıkamayacağını vaat edemiyor gibi görünüyor.
Görüş: İçinde alçakgönüllülük bulunması gereken bir özelliktir
Bu ifadeyi Tim Cook’un başarısızlık itirafı olarak görenler olabilir ancak ben bu ifadeyi Apple’ın AI’a yaklaşımının bir başka başarısı olarak görüyorum – ve gerçekten umarım AI’nın eksikliklerine olan bu dürüst takdir, Apple Intelligence’ın sunduğu yanıtlarda yansıtılır.
Son zamanlarda oldukça fazla test ettim ve favori cevabımın “Bilmiyorum” veya onun bir türevidir.” olduğunu duymaktır.
Bazı AI basın toplantılarını dinlediğinizde, tüm yaşamın sorunlarını çözmek için burada olan teknolojik bir mesih olduğuna inanarak ayrılabilirsiniz; ama değil.

AI, üzerinde eğitim aldığı insan yapımı içerikte bulabileceğiniz tüm aynı kusurlara sahip bir ölümlüdür. Bu, AI’ın bilgisinde boşluklar olacağı, bununla ilgili yanlış anlamalar gelişeceği, aldığı verilerdeki tutarsızlıklar nedeniyle yanlışlıkla yanıldığı ve dünyanın çekirdek yorumlarında oluşmuş olan önyargılar olacağı anlamına gelir çünkü onlar bizimkinden oluşmuştur.
Mükemmel AI, hatalı cevaplarla kendinden emin bir şekilde konuşan sanal bir asistan değildir – iyi bir yanıtı olmadığını cesurca kabul edebilen bir sistemdir.
Bunun uygulanması zor olabilir, ancak bir formu basitçe Google Gemini’deki ‘Çift kontrol yanıtı’ özelliğinin otomatik versiyonu olabilir – AI, kendini Google Arama kullanarak gerçekleri kontrol ederek kontrol eder. Eğer yanıtlarını güvenilir bir kaynaktan destekleyen makaleler bulursa cümleyi yeşil renkle vurgular ve bir bağlantı ekler; Google Arama güvenilir destek bulmazsa veya çelişen sonuçlar döndürürse cümle kırmızı bir vurgu alır ve bir açıklama eklenir.
Otomatik alıntılar ve AI’nın yanıtında ne zaman ve ne kadar emin olmadığının net göstergeleri standart olarak gelmelidir – özellikle bu itirafları gördüğümde, AI’a daha az değil, daha çok güveniyorum.
Apple Intelligence henüz beta aşamasında bile başlatılmadığı için, nasıl çalıştığını pratiğinde görebilme şansımız olmadı, ama Siri’nin Tim Cook’un liderliğini takip edip kesin olmadığında veya doğru olmadığını gururla itiraf etmekten çekinmemesi umuyorum.


