Yapay zeka sohbet robotları (Chatbot), teknoloji standartlarına nazaran nispeten eskidir. Fakat işin içine Yapay zekayı tam manasıyla sokan OpenAI’nin ChatGPT’si, Microsoft’un Bing’i ve Google’ın Bard’ı liderliğindeki en yeni sistemler, her Vakit Olumlu nedenlerle olmasa da daha evvelki örneklere nazaran Fazla daha yetenekli olduklarını kanıtlıyor.
Yapay zeka gelişimindeki nihayet atılımlar, şimdiden yanlış bilgilendirme, dezenformasyon, intihal ve makine tarafından üretilen Üzücü gayeli yazılımlar hakkında tasalar yarattı. Üretken Yapay zekanın ortalama bir internet kullanıcısının mahremiyeti için nasıl sıkıntılar oluşturabileceği sorusunun yanıtı ise uzmanlara nazaran Aka ölçüde bu robotların nasıl eğitildiği ve onlarla ne kadar etkileşim kurmayı planladığımızla ilgili.
YAPAY ZEKA SOHBET ROBOTLARI VE COMMON CRAWL
Yapay zeka sohbet robotları, insan gibisi etkileşimleri taklit etmek için, Kıymetli bir kısmı Common Crawl üzere depolardan türetilen Aka ölçüde bilgi üzerinde eğitilir.
Chip’in de aktardığı üzere Common Crawl, Aleni web’i gezerek yıllar boyunca petabaytlarca bilgi topladı. Stanford’un bilgisayar bilimi kısmında doktora öğrencisi ve Microsoft Research’te eski Yapay zeka asistanı olan Megha Srivastava, “Bu modeller, internetteki halka Aleni dataların Aka bilgi kümeleri üzerinde eğitim veriyor” diyor. Srivastava’nın söylediğine nazaran ChatGPT ve Bard, Common Crawl’ın bilgilerinin “filtrelenmiş” bir kısmını kullansalar da, modelin devasa boyutu “birinin bilgileri büsbütün inceleyip sterilize etmesini” imkansız kılıyor.
Ortalama bir kullanıcı için erişimi güç olan ve internetin Irak köşelerinde bulunan dikkatsizce oluşturulmuş yahut düşük güvenliğe sahip bilgilerin bir eğitim setine ayrım edilmeden yerleştirilmiş olması ve sohbet robotu tarafından gelecekte tekrar edilmesi mümkün.
Bir botun birinin gerçek bağlantı bilgilerini vermesi, hiçbir formda olmayacak bir şey değil. Bloomberg köşe muharriri Dave Lee, Twitter’da birisi ChatGPT’den şifreli iletileşme platformu Signal’de sohbet etmesini istediğinde, gerçek telefon numarasını tam olarak verdiğini bildirdi. Bu Cin bir etkileşim muhtemelen uç bir durum olsa da bu öğrenme modellerinin erişebildiği bilgilerin dikkate değer olduğunu vurguluyor.
Ayrıca bu chatbot’lar, sizin onlara sunduğunuz dataları de öğrenme sürecine iç edebiliyor. Yani siz bir datayı onunla paylaştığınızda, o bu bilgileri Öbür birinin karşısına çıkartabiliyor. Tıpkı Samsung çalışanlarının başına geldiği üzere…
SANS Enstitüsü Emniyet tertibinden David Hoelzer, Engadget’e “OpenAI’nin sıhhat dataları üzere makul bilgileri toplamak ve modellerini eğitmek için bireylere atfetmek istemesi pek mümkün değil” dedi ve ekledi: “Ama kazara orada olabilir mi? Katiyetle…”
Kısacası Yapay zeka sohbet robotları hakkımızdaki Aleni bilgileri toplayabildiği üzere, onlarla paylaştığımız şeyleri de kendi eğitimleri için kullanabiliyor. Bu da, bu robotları kullanan rastgele birinin, bize ilişkin datalara tesadüf yapıtı ya da şuurlu olarak ulaşma ihtimali olduğunu gösteriyor.
Open AI, ChatGPT tarafı için bilgi kapalılığını korumak hedefiyle hangi tedbirleri aldığını yahut eğitim setlerine yerleşmiş olabilecek şahsî olarak tanımlanabilir bilgileri nasıl ele aldığını açıklamamış olsa da, ChatGPT’nin kendisi “kullanıcıların kapalılığını ve ferdî bilgilerini koruyan etik ve yasal standartları takip edecek formda programlandığını” ve “(kendisine) sağlanmadığı sürece şahsî bilgilere erişimi olmadığını” söylüyor.
Google, şahsî olarak tanımlanabilir bilgilerin sohbetler sırasında paylaşılmasını önlemek için Bard’da misal “korkuluklar” bulunduğunu söylüyor. Bard’ın Özel bir saklılık siyaseti bulunmuyor ve bunun yerine öteki Google eserleri tarafından paylaşılan kapsamlı zımnilik evrakını kullanıyor.
Yorum Yok