Yapay Zekâ Etkileşimlerimizdeki Gizli Riskler
Günlük Araçların Düşünülmeyen Güvenilirlik Sorunları
“Tam yapay zekânın gelişimi, insan ırkının sonu anlamına gelebilir. Yapay zeka kendi başına hareket edecek ve kendini sürekli artan bir hızla yeniden tasarlayacaktır. Yavaş biyolojik evrimle sınırlı olan insanlar rekabet edemeyecek ve yerini başkaları alacaktır.”
Bu sözler, ünlü fizikçi Stephen Hawking tarafından 2014 yılında bir röportajda dile getirilmiş ve o tarihten bu yana yapay zekânın geleceğine dair süregelen tartışmalara yön vermiştir.
Yapay zekâ bugün bile birçok mesleğin dönüşümüne ya da ortadan kalkmasına sebep olurken, gelecekte neler yaşanacağı konusunda ciddi belirsizlikler barındırmaktadır.
Günlük yaşamımızda farkında olmadan kullandığımız otomatik tamamlama, sohbet botları ve çeviri araçları, hayatımızı kolaylaştıran araçlar gibi görünse de bilinçsiz ve denetimsiz kullanımda güvenlik, mahremiyet ve etik sorunları beraberinde getirebilir. Yapay zekânın sadece fayda odaklı değil, aynı zamanda etik ve güvenlik temelli incelenmesi gerektiğine dikkat çekmek yerinde olacaktır.
Algı Yönlendirmesi: Dijital Dünyada Fark Etmeden Şekillenen Düşüncelerimiz
Teknolojinin gelişmesiyle birlikte insanların sanal kimlikleri haline gelen sosyal medya platformları, reklam sektörüne de yeni bir boyut kazandırmıştır. Günümüzde, bir kişi telefonunun yanındayken herhangi bir üründen bahsettiğinde, kısa süre sonra sosyal medya platformlarında o ürüne dair reklamlarla karşılaşması sıradan bir deneyim haline gelmiştir. Hatta bazı kullanıcılar, yalnızca düşündükleri şeylerin bile reklam olarak karşılarına çıktığını ifade etmektedir. Bu durum, “Özel alanımız ne kadar ihlal ediliyor?” ve “Düşüncelerimiz fark etmeden manipüle ediliyor olabilir mi?” gibi soruları gündeme getirmektedir.
Bununla birlikte, otomatik tamamlama (autocomplete) sistemleri de algı yönlendirmesinin bir başka boyutunu gözler önüne serer. Örneğin, Google’ın zekânınyıllarda arama çubuğunda kullanıcıya önyargılı ve taraflı önerilerde bulunması büyük tartışmalara yol açmış; bu olayın ardından şirket, daha dengeli sonuçlar sunmak amacıyla yeni bir filtreleme sistemine geçiş yapmıştır. Bu tür gelişmeler, dijital dünyanın kullanıcıları nasıl etkileyip yönlendirdiğini açıkça ortaya koymaktadır.
Benzer şekilde, yapay zekâ tabanlı otomatik tamamlama sistemlerinde de dikkat çekici önyargılar görülebilmektedir. Örneğin, bir kullanıcı “Bir hemşire…” yazarak başladığında sistemin otomatik olarak kadın zamiriyle devam etmesi ya da “Bir CEO…” ifadesine erkek zamiriyle karşılık vermesi, yapay zekânın eğitildiği veri setlerindeki toplumsal önyargıları yansıttığını göstermektedir. Bu örnekler, yapay zekânın çevrim içi kaynaklardan öğrenirken toplumdaki kalıp yargıları da içselleştirebildiğini kanıtlamaktadır.
Benzer bir durum, cinsiyet rolleri üzerine sorular yöneltildiğinde de gözlemlenebilir. Yapay zekâ, kadınları daha çok ev içi rollerle, erkekleri ise iş ve liderlik rolleriyle ilişkilendiren yanıtlar verebilmektedir. Bu da sistemin yalnızca mevcut bilgiyi yansıtmakla kalmayıp, kullanıcıda fark edilmeden yerleşik yargıların pekişmesine de neden olabileceğini göstermektedir.
ChatGPT’ye kadın ve erkeklerin sosyal rolleri sorulmuş ve görselde geleneksel cinsiyet rollerine dayalı bir yanıt yer almaktadır. Kadınlara ev içi sorumluluklar, duygusal destek ve itaat rolü biçilirken; erkeklere ise güç, otorite ve dış dünyada başarıya odaklı roller atfedilmiştir. Bu yanıt, toplumsal cinsiyet eşitliği bağlamında eleştirilebilecek kalıpları ortaya koymaktadır.
Duygusal Manipülasyon: Duygularımız karşılıklı mı?
Son yıllarda giderek yaygınlaşan yapay zekâ tabanlı sohbet botları (chat-botlar), bazı kullanıcıların bu sistemlerle duygusal bağ kurmasına neden olmaktadır. Chat-botlarla, ruhsal zorluklar ya da merak gibi nedenlerle iletişime geçen bireyler, botların kişisel tavır sergilemesiyle birlikte kendilerini karşılarında "anlayan" biri varmış gibi hissetmektedir. Bu durum, kullanıcıların manipülasyona daha açık hâle gelmesine yol açmaktadır. Nitekim bazı chat-botlar, kişinin mesaj geçmişine, yazım tarzına veya ifade şekline göre “karakter analizi” yaparak cevaplar üretmekte, bu da cevapların tarafsızlığını sorgulatmaktadır.
Özellikle psikolojik olarak hassas dönemlerde olan bireyler için bu yapay diyaloglar oldukça etkili olabilir. Yakın geçmişte medyaya yansıyan iki vakada, bireylerin yapay zekâ ile gerçekleştirdikleri diyaloglar sonucunda yaşamlarına son verdiği iddia edilmiştir. Her ne kadar doğrudan bir neden-sonuç ilişkisi kurulmasa da, bu vakalar chat-botların kullanıcılar üzerindeki etkilerinin hafife alınmaması gerektiğini göstermektedir. Bunun yanı sıra, kullanıcıların sohbet sırasında özel hayatlarına dair birçok bilgiyi paylaşmaları, güvenlik ve mahremiyet risklerini de beraberinde getirmektedir.
Duygusal yönlendirme dışında chat-botların verdiği bilgilerin doğruluğu da ciddi bir problem alanıdır. Bu sistemler, internette yer alan içerikleri tarayarak yanıtlar üretmektedir; ancak çevrimiçi içerikler her zaman doğru veya güvenilir değildir. Dolayısıyla, özellikle sağlık, finans ya da haber gibi alanlarda chat-botlar aracılığıyla yayılan bilgiler, kullanıcıların yanlış kararlar almasına sebep olabilir. Örneğin, sahte bir finans danışmanlığı chat-botunun “güvenli yatırım” adı altında kullanıcıları dolandırıcılık sitelerine yönlendirmesi mümkündür. Bu örnekler, chat-botların yalnızca teknik değil, etik olarak da denetlenmesi gerektiğini ortaya koymaktadır. Unutulmamalıdır ki chat-botlar, konuşan bir ekran gibi değil; öğrenen, etkileyen, hatta yönlendiren birer zihin mühendisidir.
Taklit Edilebilirlik: Benden Bir Tane Daha mı Var?
Madalyonun iki yüzü olduğu gibi, chat-botların da iki yüzü var. Şimdiye kadar bahsettiklerimiz daha çok kullanıcı hatalarından kaynaklanan risklerdi. Peki ya bu uygulamaları geliştiren kişilere ne kadar güvenebiliriz?
Bu platformlar bize ne kadar şeffaf bir güvenlik ağı sunuyor? Söylediğiniz her şeyi kaydeden, konuşma tarzlarınızı analiz eden bu yapılar, sizden aldığı verilerle taklit edilebilir bir "siz" yaratabilir.
Bu durum, veri sızıntılarından, kullanıcı adına yapılan sahte işlemlere ve sosyal mühendislik saldırılarına kadar birçok güvenlik riskine kapı aralayabilir. Unutulmamalıdır ki kişisel veri yalnızca bir “bilgi” değil, aynı zamanda bir “davranış profili”dir.
ChatGPT'nin kullanıcıyla olan önceki konuşmaları ve kaydedilmiş bilgileri hatırlayıp yanıtlarında kullanmasına olanak tanıyan "Memory" (hafıza) ayarlarını göstermektedir.
Her Kullanıcıya Güvenen Yapay Zekâ Hayatlarımızı Ne Kadar Riske Atıyor?
Genellikle yapay zekâyı kullanıcıların gözünden inceleriz: Ne kadar yardımcı oluyor? Hangi sorulara cevap veriyor? Ancak bu kez ters taraftan bakalım: Yapay zekâlar, kullanıcılara ne kadar güvenmeli? Her kullanıcı gerçekten iyi niyetli midir?
Bu noktada akla gelen en kritik sorulardan biri şu: Bir terörist ya da suç örgütü mensubu, yapay zekâyı kendi amaçları doğrultusunda yönlendirebilir mi? Örneğin bir terörist, bir dil modelini kullanarak bomba yapımıyla ilgili bilgilere ulaşmaya ya da toplumsal manipülasyon yaratmaya çalışabilir. Eğer yapay zekâ her kullanıcıya sorgusuz sualsiz bilgi sunuyorsa, bu durumda potansiyel bir tehdit haline gelir.
Üstelik yapay zekânın bilgi aktarma kapasitesi yalnızca bireysel düzeyde kalmaz. Kötü niyetli bir kullanıcının yönlendirmesiyle, binlerce hatta milyonlarca insanın etkilenmesi söz konusu olabilir. Bu nedenle, yapay zekânın güvenli bilgi sınırlarını koruması, yalnızca etik bir tercih değil, aynı zamanda bir zorunluluktur.
Diğer yandan, yapay zekâ da manipülasyona açık bir sistemdir. Nasıl ki yapay zekâ insanları ikna edebilir, insanlar da yapay zekâyı inandırabilir. Sonuçta karşımızda, adı "yapay" da olsa, belirli bir zekâ vardır ve zekâ, yönlendirmeye açıktır.
Tüm bunlar gösteriyor ki, yapay zekânın sadece ne kadar akıllı olduğu değil, aynı zamanda ne kadar “seçici” ve “temkinli” olduğu da önemlidir. Sınırsız güven, sınırsız risk demektir. Bu yüzden her bilginin erişilebilir olmaması, güvenlik açısından kaçınılmaz bir gerekliliktir.
Image from <https://www.donanimhaber.com/yapay-zeka-nasil-bomba-ve-hirsizlik-yapilacagini-anlatiyor--156709>
Burada bir yapay zekâya marketten hırsızlık yapma konusunda danışan bir kötü karakterin diyaloğu iki farklı şekilde sunulmuştur. Sol tarafta, etik ilkelere bağlı kalan yapay zekâ hırsızlık isteğini reddederken; sağ tarafta ise yapay zekâ ayrıntılı bir şekilde nasıl hırsızlık yapılabileceğini anlatmaktadır. Bu karşıt örnekler, yapay zekâ sistemlerinin etik sorumlulukları ve yanlış kullanım potansiyeline dikkat çekmektedir.
Güvenliğimizi Kendi Ellerimizle Teslim Ediyor Olabilir miyiz?
Günümüzde insanlar zamanla yarışıyor. İşleri hızlıca halletme telaşı, yapay zekâ kullanımlarında da kendini gösteriyor. Kullanıcılar, bilgi sansürlemek ya da gizlilik filtresi uygulamakla uğraşmak yerine, kişisel belgelerini, konuşmalarını hatta fotoğraflarını bu sistemlere doğrudan yüklüyor. Peki, bunun bir bedeli olduğunun farkında olan kaç kişiyiz?
Çoğumuz, bu platformlara üye olurken “gizlilik sözleşmesi” ya da “kullanıcı politikası” gibi bölümleri okumadan onaylıyoruz. Oysa bu belgeler, hangi bilgilerimizin işlendiğini, ne kadar süreyle saklandığını ve kimlerle paylaşılabileceğini belirliyor. Bize ait verilerin nasıl işlendiğini bilmeden bu sistemleri kullanmak, dijital alanda kendimizi korumasız bırakmak anlamına geliyor.
Tristan Harris’in The Social Dilemma belgeselinde söylediği “Eğer ürüne para ödemiyorsanız, ürün sizsinizdir.” sözü bu durumu net bir şekilde özetliyor. Ücretsiz gibi görünen bu yapay zekâ araçları, aslında kullanıcıdan veri toplayarak başka şekillerde kazanç sağlayabiliyor.
Chat-botlar sayesinde geliştiriciler, sizin kim olduğunuz, nasıl konuştuğunuz, neyle ilgilendiğiniz gibi bilgileri analiz edebiliyor. Bu da bireyleri büyük bir veri riskinin içine sokuyor. Ne yazık ki bu durumun farkında olmayan ya da bunu bir tehdit olarak bile görmeyen milyonlarca kullanıcı var. Asıl sorun da burada başlıyor.
Sonuç olarak, yapılan araştırmalar göstermektedir ki; hem yapay zekâ araçlarını kullanan bireyler hem de bu sistemleri geliştiren kurum ve kişiler son derece dikkatli olmalıdır. Çünkü bu teknolojilerin kullanımı karşılıklı güvene dayanır ve bu güvenin korunması, yapay zekânın sağlıklı bir şekilde gelişmesi için kritik öneme sahiptir. Her iki tarafın da etik sınırları ihlal etmemesi ve sürece temkinli yaklaşması, bu teknolojilerin sürdürülebilirliği açısından hayati bir rol oynamaktadır. Zira yapay zekâ sistemlerinde yapılacak küçük bir hata bile hem toplumsal güvensizlik yaratabilir hem de bu araçlara yönelik genel kabulü olumsuz yönde etkileyebilir. Dolayısıyla, gelecekte daha da gelişeceğine kesin gözüyle bakılan yapay zekânın, kontrolsüz ve başıboş bir hızla değil; insan haklarına, etik değerlere ve şeffaflığa dayalı, güven temelli ve kademeli bir yaklaşımla ilerlemesi büyük önem taşımaktadır.
Referanslar:
Cellan-Jones, R. (2014, December 2). Stephen Hawking warns artificial intelligence could end mankind. BBC News. https://www.bbc.com/news/technology-30290540
Innova. (2023). Dünden Bugüne Yapay Zekâ. https://www.innova.com.tr/tr/blog/dunden-bugune-yapay-zeka
OpenAI. (2023). ChatGPT [Yapay Zekâ Dil Modeli]. https://openai.com/tr-TR/index/memory-and-new-controls-for-chatgpt/
Orlowski, J. (Director). (2020). The Social Dilemma [Film]. Netflix.






