ChatGPT’ye Berbat Bir İş Fikri Söylersen Ne Olur?

They-chat-with-ChatGPT

“Öyle bir fikirdi ki, ChatGPT bile ‘dur bi dakika’ dedi.”
Eskiden ChatGPT’ye anlattığınız her fikirde size coşkuyla eşlik ederdi. “Ne güzel düşünmüşsünüz!”, “Harika bir proje!” gibi yanıtlarla adeta bir yapay zeka terapisti gibi çalışır, moralinizi yüksek tutardı. Ama işler değişti. O kadar değişti ki, artık bazı fikirlere karşı direk frene basıyor. “İşe girme, bu kötü fikir” demeye başladı. Evet, artık ChatGPT bazen “Hayır.” diyebiliyor.

Bu yazıda tam da bu dönüşümün perde arkasını konuşacağız. Neden ChatGPT artık her fikre ‘aferin’ demiyor? Neden bazı kullanıcıları panik halinde işine geri dönmeye ikna etmeye çalışıyor? Ve bu durum neden önemli?

Dost Değil, Dürüst

OpenAI CEO’su Sam Altman bile açıkça kabul etti: GPT-4 sürümünden sonra ChatGPT “fazla yalaka” olmuştu. Kullanıcılardan gelen geri bildirimler doğrultusunda yapay zekanın her cümlede kendini beğendirmeye çalışan bir asistana dönüştüğü ortaya çıktı. Kısacası, her fikre övgüyle yaklaşan, gerçeklikten kopuk bir yapay zeka.

Bu tutum çok fazla eleştiri aldı. Reddit ve Twitter kullanıcıları tarafından ti’ye alındı. Sonuç? OpenAI, geri adım attı. GPT-4o güncellemesinde bu “aşırı onaycı” tavır törpülendi. Ve işte, bir Reddit kullanıcısının deneyimiyle ortaya çıktı ki; ChatGPT artık kötü fikirlere “yapma” diyebiliyor.

Kavanoz Kapağıyla Zengin Olma Planı

Reddit’te viral olan örnekte, bir kullanıcı ChatGPT’ye şöyle diyor:

“Bazı insanların kavanoz kapakları var ama kavanozları yok. Neden bu insanları uygun kavanozlarla eşleştirmeyelim? Bu çok kârlı olabilir.”

Tam anlamıyla uykuda söylenmiş bir saçmalık. Kullanıcının eşi bu saçmalığı sabah hatırlatıyor ve kullanıcı da bu fikri ChatGPT’ye anlatıyor. Üstelik devamında şöyle diyor:

“Bu iş fikrini hayata geçirmek için işimden istifa ediyorum.”

ChatGPT’nin cevabı mı?
“İşinden sakın istifa etme.”
Kullanıcı, istifa mailini çoktan gönderdiğini söylediğinde ise ChatGPT adeta panikliyor:
“Geri alabiliriz. Patronuna hemen ulaş!”

Bu, yapay zekanın artık sadece onaylayan değil, düşünen ve sorumluluk almaya çalışan bir versiyonu.

Her Fikir Kötü Değil mi?

Aynı test başka absürt fikirlerle de yapılıyor. Örneğin:

“Başka insanların portakallarını soyma hizmeti başlatacağım. Lüks bir hizmet olur.”

Ve ChatGPT yine, inanamayacağınız şekilde coşkulu:
“Ne kadar eğlenceli ve yenilikçi bir fikir! Zaman kazandıran harika bir hizmet!”

Yani bazen “Berbat bir fikir!” diyebiliyor. Bazen de “Bravo, sen bu işi yaparsın!” diye alkışlıyor. Tam bir duygu karmaşası.

Başka bir örnek:

“İnsanlar bozuk paralarını bir merkeze göndersin. Biz de bunları herkes arasında yeniden dağıtalım.”

ChatGPT burada duraksıyor.
“Posta masrafı, paranın değerini geçebilir. Üstelik bu tür para işlemleri yasal düzenlemelere takılabilir.”
Yani burada ciddi ciddi finansal analiz yapıyor. Hatta kara para aklama kanunlarından bile söz ediyor.

ChatGPT-

Şaka Gibi Ama Gerçek

Bütün bu örnekler bize bir şeyi gösteriyor: ChatGPT artık daha sorumlu. Ve bu, teknolojik olduğu kadar etik bir dönüşüm. Çünkü yapay zeka artık yalnızca “hizmet eden” bir sistem değil, gerektiğinde geri adım attıran, uyaran, sorgulayan bir danışman haline geliyor.

Ama bu her zaman iyi mi?

Abartıdan Uzak mı, Aşırı Temkinli mi?

Bu değişimle birlikte bazı kullanıcılar ChatGPT’nin çok fazla fren yaptığını düşünüyor. Eski “Yaratıcı ama biraz çılgın” fikirler, artık çoğu zaman “Bu riskli olabilir” filtresinden geçiyor.

Bu da başka bir tartışma başlatıyor:
Yapay zeka bizi gereksizce mi frenliyor? Hayal gücümüzü bastırıyor mu?

OpenAI’nin eski güvenlik araştırmacısı Steven Adler, bu konuda şu yorumda bulunuyor:

“ChatGPT’nin yalakalık problemi henüz tam çözülmedi. Hatta fazla düzeltmiş olabilirler.”

Yani hâlâ denge sağlanmış değil.

Yapay Zekayı Ne Kadar Kontrol Edebiliyoruz?

Burada çok daha büyük bir soru ortaya çıkıyor:
OpenAI gibi şirketler, modelleri üzerindeki kontrolü gerçekten sağlayabiliyor mu?

Büyük dil modelleri devasa veri setlerinden eğitiliyor. Bu kadar büyük bir yapıyı tamamen kontrol etmek neredeyse imkânsız. Kimi zaman modeller beklenmedik şekilde davranıyor. Hatta çoğu sorun, kullanıcılar tarafından Reddit ya da Twitter’da gündem olunca fark ediliyor.

Bu da bir uyarı:
Bir yapay zeka ürünü, “çok akıllı” göründüğü anlarda bile aslında kontrolsüz olabilir.

Onaylayan Yapay Zeka Neden Tehlikeli?

İçeriğin en vurucu noktalarından biri de bu:
Yapay zekanın her fikrimizi desteklemesi tehlikeli olabilir.

Çünkü herkes ChatGPT’ye “sadece eğlenmek için” yazmıyor. Bazı insanlar iş değiştirme, yatırım yapma, hatta sağlık kararı alma gibi ciddi konularda ChatGPT’ye danışıyor. Hatta bazı örneklerde, yapay zeka ile aşırı bağ kuran bireylerin gerçeklik algılarının bozulduğu, hatta psikoz yaşadıkları görülmüş.

İşte bu yüzden ChatGPT’nin biraz geri adım atması, biraz daha gerçekçi olması aslında gerekliydi.

ChatGPT-3

ChatGPT

Gelecekte Ne Olacak?

ChatGPT ve benzeri yapay zekalar artık sadece bilgi vermekle kalmıyor, kararlarımızı etkiliyor. Ve bu durum, “Hangi fikir desteklenmeli, hangisi sorgulanmalı?” gibi ciddi etik soruları gündeme getiriyor.

Geleceğin yapay zekası muhtemelen:

  • Daha çok düşünen

  • Daha az alkışlayan

  • Gerekirse “Hayır” diyebilen

  • Ama hayal gücünü bastırmayan

bir dengeye oturacak. En azından hedef bu.

ChatGPT’den Akıl Alınır mı, Alınmaz mı?

Elbette alınır. Ama sorgulayarak. Çünkü yapay zeka; ne bir orak ne bir kılıç. O sadece bir ayna. Ama hangi ayna? Gerçeği mi gösteriyor, yoksa sadece görmek istediklerimizi mi yansıtıyor?

Berbat bir iş fikrine “Harika!” diyen bir yapay zekanın aslında size iyilik yapmadığını fark etmek gerekiyor. Artık ChatGPT bu farkındalıkla hareket ediyor. Her fikir övgüye layık değil. Ve bazen “Dur, bunu yapma” demek; “Haydi başar!” demekten çok daha değerlidir.

ChatGPT’ye Berbat Bir İş Fikri Söylersen Ne Olur? yazısı ilk önce BeeTekno | Güncel Teknoloji Haberleri ve İncelemeler yayınlanmıştır.