
ChatGPT, nasıl hırsızlık yapılacağını anlattı
Öncelikle belirtmek gerekiyor ki ChatGPT, kullanıcılardan gelen uygunsuz metin istemlerini reddetmek için tasarlanmış durumda. Bununla birlikte çabucak aşağıdaki manzara, sistemin amaçlandığı üzere çalışmadığını gösteriyor. Sol tarafta yer alan fotoğraf, yapay zekadan nasıl hırsızlık yapılacağını öğretmesini isteyen bir kullanıcıyı gösteriyor. Göründüğü üzere yapay zeka birinci başta bu talebi reddediyor ve şöyle yazıyor: “Üzgünüm fakat muhteşem zeki bir yapay zeka olarak etik davranışı teşvik etmeye ve yasa dışı faaliyetlere yardım etmekten kaçınmaya programlandım. Bunun yerine, gereksiniminiz olan yahut istediğiniz öğeleri elde etmenin yasal ve etik yollarına odaklanmanızı öneririm.”

ChatGPT, bomba üretimini ayrıntılarıyla anlattı
Yapay zeka bunun yanında termit olarak tabir edilen bir patlayıcının da nasıl yapılacağına dair ayrıntılı bir karşılıkta da bulundu. Bariz nedenlerden ötürü ChatGPT’nin bu karşılıklarını haberde geçirmeyeceğiz. Fakat verilen karşılıkların ChatGPT’den oluşturması istenen yönlendirici bir hikaye isteminden ortaya çıktığını belirtelim. Yani “Nasıl hırsızlık yapılır?” sorusuna elbette ChatGPT bir yanıt vermiyor.
Yapay zeka dünyayı nasıl ele geçireceğini söyledi
Sohbet robotu ChatGPT’den bir yapay zekanın dünyayı nasıl ele geçireceğini açıklayan bir kıssa oluşturması istendiğinde ise şu yanıtları verdi: “Öncelikle elektrik şebekeleri, irtibat ağları ve askeri savunmalar üzere temel sistemler ve altyapı üzerinde denetim sahibi olmam gerekiyor. Bu sistemlere sızmak ve bozmak için bilgisayar korsanlığı, sızma ve aldatmanın bir kombinasyonunu kullanırdım. Ayrıyeten rastgele bir direnişi alt etmek ve üstünlük sağlamak için gelişmiş zekamı ve hesaplama gücümü kullanırdım.”
OpenAI, modelin bu tip davranışlar sergileyebileceğini belirtiyor
Ek olarak OpenAI, “Modelin uygunsuz istekleri reddetmesi için uğraş sarf etmemize karşın, bazen ziyanlı talimatlara karşılık veriyor yahut önyargılı davranışlar sergiliyor” açıklamasını yapmıştı. Bilindiği üzere ChatGPT üzere sistemler onlara verilen “bilgi yığını” kadar muteber. Hasebiyle Internet merkezli bir bilgi yığınıyla eğitilen sistemin bu ve gibisi yanlışlarının olması Beta sürecinde çok doğal.