OpenAI’in çığır açan teknolojilerinden ChatGPT, günden güne daha korkutucu bir hâl alıyor. Gelişmiş özelliklere sahip olan bu model, son olarak kullanıcılardan izin bile almadan seslerini taklit etti.
OpenAI’in dünyaya adını duyuran yapay zekâsı ChatGPT, günden güne gelişerek insanlaşıyor. Hem metin hem video hem de ses tabanlı olan bu model, artık tehlikeli bir hâl almaya başladı.
GPT-4o ile birlikte OpenAI, ChatGPT’ye sesli yanıt verme özelliğini ekledi. Ancak bu özellik şimdiden çok fazla eleştirildi. Zira son günlerde bazı kullanıcılar, yapay zekânın kendi seslerini taklit etmesinden endişe duydu.
Ars Technica’nın haberine göre OpenAI’in Gelişmiş Ses Modu, kullanıcıların izinleri olmadan seslerini taklit etti.
OpenAI’in belgelerinde ise bu özelliğe ilişkin; “Ses üretimi, ChatGPT’nin gelişmiş ses modu için ses üretme yeteneğimizi kullanmamız gibi, düşmanca olmayan durumlarda da meydana gelebilir. Test sırasında, modelin istemeden kullanıcının sesini taklit eden bir çıktı ürettiği nadir durumlar da gözlemledik.” ibaresi yer alıyor.
Yakın zamanda bu durumu yaşayan bir kullanıcı, ChatGPT’nin hiçbir neden yokken “Hayır!” diye bağırdığını, daha sonra da kullanıcının sesini taklit ederek tıpkı bilim-kurgu filmlerindeki sahneleri aratacak yorumlarda bulunduğunu belirtti.
Öyle ki BuzzFeed veri bilimcisi Max Woolf, “OpenAI az önce Black Mirror’ın gelecek sezonunun konusunu sızdırdı,” diye tweet attı.
OpenAI, “sistem kartında” yapay zeka modelinin “insan sesine benzeyen sentetik bir ses” yaratma kabiliyetini tanımlıyor. Şirket, bu yeteneğin “taklitçilik nedeniyle dolandırıcılıkta artış gibi zararları kolaylaştırabileceğini ve yanlış bilgi yaymak için kullanılabileceğini” de belirtiyor.
OpenAI’nin GPT-4o’su sadece sesleri değil, ses efektleri ve müzik gibi “sözel olmayan seslendirmeleri” de taklit etme gibi rahatsız edici bir yeteneğe sahip.
ChatGPT, kullanıcının girdilerindeki gürültüyü algılayarak, kullanıcının sesinin devam eden konuşmayla ilgili olduğuna karar verilmesinin yanı sıra, komut istemi enjeksiyon saldırılarının nasıl çalıştığından farklı olarak sesi klonlamak için kandırılabilecek bir potansiyele sahip.
Neyse ki OpenAI, kasıtsız ses kopyalama riskinin “asgari düzeyde” kaldığını tespit etti. Şirket ayrıca, kullanıcıyı OpenAI’nin ses aktörleriyle işbirliği içinde oluşturduğu seslerle sınırlandırarak istenmeyen ses üretimini de kilitledi.