ChatGPT güvenilir mi?

Doğal dilde yanıt verebilen bir yapay zeka (AI) olan ChatGPT’nin dikkatleri üzerine çekmesi ve gündem haline gelmesi çok az zaman aldı. 1990’larda ilk internet kullanıcılarının yaşadığı coşkuyla kıyaslanabilir bir coşku. Veya Türk üniversitelerinde programlama ile ilk temas. Ancak öyle görünse de makine onlarla konuşmuyor. Sadece cevabınızda bir sonraki kelimeye hangi kelimenin eşlik edeceğini hesaplar. Becerisini düşünürken bunu unutmak kolay olsa da, ne düşünür ne de acı çeker.

Bununla birlikte, bu asistanlara yalnızca kelime hesaplayıcıları demek, atıl bir makineye insani nitelikler vermek kadar verimsiz olabilir. ChatGPT’nin AI’sı ile sohbet etmek, herhangi bir elektronik cihazın kullanımında şimdiye kadar görülmemiş yardımcı programlar sunar. Metinleri anında özetler ve parçalara ayırır. Bize buzdolabında ne olduğunu söyleyen menüler hazırlıyor. Metinleri çevirir. Bir sonraki sınavımızı geçmek için hangi konuları çalışmamız gerektiğini bize söyler… Ayrıca bunu hızlı ve tereddüt etmeden yapar.

ChatGPT ayrıca bilgileri düzenli ve açık bir şekilde yazılmış bir şekilde sunar. Her konuda uzman gibi davranıp, bizim seviyemize indiriyor, her şeyi bilgimize göre açıklıyor. Sorun şu ki, o böyle bir uzman değil; sadece öyle görünüyor. Hiç tereddüt etmiyor ya da “Kusura bakma bu konuda bilgim yok” demiyor. Onlar her şeyi bilmek ve her zaman bir cevaba sahip olmak üzere programlanmış makinelerdir.

ChatGPT yapay zekasının söylediği her şeye inanmalı mıyız?

Bununla birlikte, kullanıcılarını bu kadar büyüleyen bu özellikler, doğası gereği, yanlış veya eksik bilgilerin yayılması gibi açık ve doğrulanabilir riskler doğurur. Örneğin, söz konusu yapay zekanın beslendiği bilgilerin hatalar içermesi ya da eksik olması söz konusu olabilir. Ya da istenen cevaba ulaşmak için yapılan matematiksel hesaplamaların hatalı sonuçlara yol açtığını da. Ve son kullanıcının – alanında uzman olmadığı sürece – okuduklarının doğru olup olmadığını bilmesinin hiçbir yolu yoktur. Hem genel medyada hem de Üniversitelerin bilimsel dergilerinde konu ile ilgili uyarılarda bulunan çok sayıda makale bulunmaktadır. Hem geliştiricileri hem de hükümetler şimdiden bu istenmeyen etkilerin nasıl en aza indirileceğini tartışıyorlar.

Diğer bir potansiyel risk de, bazı kötü niyetli aktörlerin, siyasi veya kazançlı amaçlarla yanlış, önyargılı veya yanıltıcı bilgiler üretmek için ChatGPT yapay zekasını veya benzerini kullanmasıdır. Bu teknoloji, bunu tamamen kişiselleştirilmiş bir şekilde ve talep üzerine yapmanızı sağlar. Ayrıca, her demografiyi bir konu uzmanının tipik olarak kullanacağı üslup ve referanslarla hedeflemenize olanak tanır. Üstüne üstlük, hızlı ve kullanımı nispeten ucuz.

Toplum hiç bu çapta bir şeyle karşılaşmadı. Matbaa, bilgi kanallarını kontrol altına aldı ve o zamanlar, diğer şeylerin yanı sıra, büyük ölçekte taraflı veya hatalı bilgi üretmek için kullanılıyordu. Ardından, değerlerine veya doğruluklarına bakılmaksızın fikirleri dünyanın geri kalanına yaymayı giderek daha kolay hale getiren internet ve sosyal ağlar geldi. Buna rağmen, uygun becerilere ve her metni yazmak için yeterli zamana sahip bir kişiye her zaman ihtiyaç duyulmuştur. Ancak ChatGPT’nin yapay zekası bu sınırlamaları ortadan kaldırıyor: herhangi bir dilde yazıyor, farklı tonlarda yazmayı biliyor, sürekli öğreniyor ve becerilerini geliştiriyor ve üstelik bunu anında ve gülünç bir fiyata yapıyor.

Ancak tehlikeleri, yalnızca yeteneğinin yanlış ellere geçmesinden kaynaklanmıyor. Sosyal ağlarda, sohbet ilerledikçe ChatGPT yapay zekasının bazı durumlarda zararlı tavsiyelere bile dönüşen hataları birbirine bağladığı durumlar bulmak kolaydır. Sorumlu şirketler, yapay zekalarının hassas veya tehlikeli olarak işaretlenen konularda fikir veya bilgi sunmadığını dikkatle izler. Ayrıca kullanıcıları, henüz geliştirme aşamasında olan bir ürün olduğu için hiçbir şeyi doğru kabul etmemeleri konusunda açıkça uyarıyorlar. Ama risk orada.

Bununla birlikte, en tehlikeli şey, kullanıcının İnternet’te bir kişiden geliyormuş gibi görünen, ancak aslında ChatGPT veya türevleri tarafından yazılmış bir metin olan bir bilgiyle karşılaşmasıdır. AI ile yapılan sohbette, kullanıcı her zaman yanlış veya yanlış şeyler söyleyebilen bir yapay zeka ile konuştuğunu bilir. Ancak bu kapsamın dışında, okuduklarımızın bir kişi veya bir robot tarafından yazıldığını tasdik eden herhangi bir filigran türü yoktur. Örneğin: bir satıcı bugün ChatGPT yapay zekası ile satışa sunduğu ürünü öven ve tüketiciyi görünüşte bilinçli ama gerçekte manipülasyona dayalı bir satın alma işlemi yapmaya davet eden yüzlerce farklı yorum üretebilir.

Çevrimiçi medyanın güvenilirliğini derecelendirmek için en popüler aracı sağlayan bir şirket olan NewsGuard’ın kurucusu L. Gordon Crovitz, “bu araç, dezenformasyon yaymak için şimdiye kadar İnternette bulunan en güçlü araç” diyor. Yeni olmayan bir sonuç. 2019’da, ChatGPT AI’nın arkasındaki şirket olan OpenAI mühendislerinin kendileri, araştırmalarının sonuçlarıyla ilgili biraz endişe gösterdi çünkü “yetenekleri dezenformasyon kampanyalarının maliyetlerini azaltabilir” ve “ekonomik faydaları, belirli bir siyasi gündemi ve/veya belirli aktörler için kaos veya kafa karışıklığı yaratma arzusu” olarak ifade edildi.

Gerçeğin ne olduğunu belirleme zorluğu

Yanlış bilgi ve kötü niyetli propagandanın yayılmasını durdurmak için ilk önlemler, bu modellerin, bilgilerini çoğunlukla edindikleri İnternet’te yazılan hiçbir şeyi doğru olarak kopyalamamaları için vicdani bir şekilde eğitilmesidir. Sorun şu ki, her zaman boşluklar vardır. Doğru ile yanlış arasındaki çizgi, bir Üniversite veya bir kamu kurumu içinde bile her zaman net değildir. Ek olarak, bugün kesin olarak bildiğimizi sandığımız şeyler, gelecekte kolektif zekamızın gelişmesi sayesinde muhtemelen çürütülecektir. Tarih boyunca elimizde sayısız örnek var.

Doğruyu kimin kontrol ettiği çeşitli tehlikeler ve ayrıca felsefi, ahlaki ve hatta demokratik tartışmaları da beraberinde getirir. Şu anda, alanında uzman kişiler tarafından tavsiye edilen özel şirketlerdir. Ancak gelecekte kimlerin olacağı, hangi kontrol mekanizmalarının müdahale edeceği vb. konularda toplum olarak anlaşmak önemlidir.

Öte yandan, ChatGPT gibi bir yapay zekanın neyi söyleyip söyleyemeyeceğini aşırı derecede düzenlemek, kullanıcılarının bir kısmı için sakıncalar ve sınırlamalar da getirir. Herhangi bir aracın en fazla yapabileceği, tam olarak kullanıcının istediğini yapmaktır. Teknoloji şirketlerinin konumu da buna paralel olarak, kullanıcılara toplumun kabul edebileceği sınırlar dahilinde kullanımları konusunda giderek daha az kısıtlama sunmaktır.

OpenAI için, bloglarında detaylandırıldığı gibi, çoğulculuk, özgürlük ve kendi ahlakımızın zaman içinde gelişmesine izin vermek önemlidir. Tıpkı geçmişte toplumlarımızın yaptığı gibi, bu araçlar bugün bize ne kadar çok zorluk çıkarırsa çıkarsın. Ancak yine de bir fikir birliğine varması gereken toplumdur.