Self-Driving Tesla Yoldan Çıktı ve Takla Attı

self-driving-tesla

Self-Driving Tesla yoldan aniden saparak kaza yaptı. Bu olay, Tesla’nın “Full Self-Driving” (FSD) yani “Tam Otonom Sürüş” adını verdiği sürücü destek teknolojisinin ne kadar güvenli olduğu konusundaki endişeleri yeniden gündeme getirdi. Alabama’da bir Tesla Model 3’ün, FSD açıkken yol kenarındaki bir çite çarpıp takla atması sosyal medyada viral oldu ve teknoloji dünyasında büyük yankı uyandırdı.

Peki bu teknoloji gerçekten “tam otonom” mu? Ve bu kazalar Tesla’nın robotaksi hayalleriyle çelişiyor mu? İşte olayın perde arkası ve Tesla’nın FSD teknolojisinin bugünkü durumu.

Aniden Dönen Direksiyon ve Takla Atan Self-Driving Tesla

Kazanın görüntüleri Reddit’te hızla yayıldı. Tesla Model 3, sessiz bir kırsal yolda FSD açık şekilde ilerlerken aniden yol dışına sapıyor, çitlere çarpıyor ve takla atıyor. Araç sahibi Wally, kazadan sonra yaptığı açıklamada şu ifadeleri kullandı:

“Karşıdan bir araç geçtikten sonra direksiyon birden hızla dönmeye başladı. Araç önce hendeğe girdi, ardından ağaca çarptı ve takla attı. Tepki vermem için zaman yoktu.”

Wally’nin kullandığı araç, Tesla’nın en güncel donanımı olan Hardware 4 ile donatılmış ve en yeni FSD v13.2.8 yazılımı yüklüydü. Kazanın ardından sadece çenesinde yedi dikiş gerektiren bir kesiyle kurtuldu. Ancak olay, daha derin bir problemi gözler önüne serdi: FSD hâlâ insan müdahalesine ihtiyaç duyuyor ve hatasız çalışmıyor.

Tesla’nın “Full Self-Driving” Teknolojisi Ne Kadar Otonom?

Tesla’nın “Full Self-Driving” ismi yanıltıcı olabilir. Çünkü bu sistem, adının aksine seviye 2 otonom sürüş teknolojisidir. Bu da demek oluyor ki:

  • Araç, otoyolda şerit takibi, otoyol çıkışları, otomatik park ve şerit değişimi gibi işlemleri yapabilir.

  • Ancak sürücü, direksiyon başında ve her an müdahaleye hazır olmak zorundadır.

Yani aslında FSD, tam otonom bir sistem değil; daha çok gelişmiş bir sürücü destek sistemi.

self-driving-tesla-

Başka Bir Tesla Kazası

Kazaya Neden Olan Ne?

Kazanın gerçekleştiği yol kesiminde dikkat çeken hiçbir fiziksel engel, keskin viraj veya zorlu hava koşulu yoktu. Ancak:

  • Ağaçların gölgesi nedeniyle oluşan ışık geçişleri, FSD sistemini şaşırtmış olabilir.

  • Karşı yönden gelen bir kamyonun varlığı, sistemde yanlış pozitif bir reaksiyon tetiklemiş olabilir.

  • Görüş alanında farklılaşmalar, FSD’nin görüntü işleme algoritmalarını etkilemiş olabilir.

Bu, birçok Tesla kazasında görülen ortak bir sorun: Görünürde hiçbir tehlike yokken, sistem beklenmedik şekilde hata yapıyor.

Tesla Robotaksi Planları İçin Tehlike Çanları mı?

Tesla CEO’su Elon Musk, 2024 sonuna kadar robotaksi hizmetini Austin, Texas’ta başlatacağını duyurdu. Bu hizmet, Tesla araçlarının sürücüsüz olarak yolcu taşıması anlamına geliyor. Ancak:

  • Bu kazalar, sistemin henüz bu hedefe hazır olmadığını gösteriyor.

  • Tesla’nın rakipleri olan Waymo ve Cruise, hâlihazırda sınırlı bölgelerde tam otonom hizmetler sunarken, Tesla hala insan gözetimi gerektiriyor.

Tesla’nın Autopilot ve AI lideri Ashok Elluswamy, yakın zamanda verdiği bir podcast röportajında şunları söyledi:

“Sistemimiz henüz tam anlamıyla Waymo seviyesinde değil. Gelişmemiz için birkaç yıla daha ihtiyacımız var.”

Bu itiraf, Musk’ın pazarlama diliyle teknik gerçeklik arasındaki farkı net şekilde ortaya koyuyor.

FSD Kullananlar Ne Diyor?

Kazaya karışan Tesla sahibi Wally, FSD’yi sürekli kullandığını, ayarlarını optimize etmek için YouTube videoları izlediğini ve sistemin konforunu sevdiğini söyledi. Hatta sabah işe giderken kahvaltıya uğramak için aracı “Waffle House”a kadar kendisinin yerine sürdüğünü ifade etti.

Ancak bu rahatlık, büyük bir kazaya neden oldu. Bu da gösteriyor ki:

  • Kullanıcılar FSD’yi fazla güvenli sanabiliyor.

  • “Eller serbest, gözler kapalı” bir kullanım şekli, sistemin tasarımına aykırı.

  • Tesla, kullanıcıları sistemin sınırları konusunda daha açık şekilde bilgilendirmeli.

Düzenleyici Kurumlar ve Artan Baskı

Tesla’nın sürücü destek teknolojisi, bugüne kadar yüzlerce kazayla ve onlarca ölümle ilişkilendirildi. Bu nedenle:

  • ABD Ulusal Karayolu Trafik Güvenliği İdaresi (NHTSA), Tesla’nın FSD yazılımına dair bir dizi soruşturma yürütüyor.

  • 2024 yılı içinde Tesla, bazı yazılımlarında güvenlik güncellemeleri yapmaya zorlandı.

  • Avrupa ülkeleri, FSD’nin tamamen serbest bırakılmasına hâlâ izin vermiyor.

Bu da gösteriyor ki FSD’nin mevcut haliyle hem teknik hem de hukuki açıdan tamamen olgunlaşmamış olduğu söylenebilir.

self-driving-tesla-

Otonom Sürüşün Geleceği Nereye Gidiyor?

Bugünkü tabloya baktığımızda:

Sistem Otonomluk Seviyesi Yaygınlık İnsan Müdahalesi Gerektiriyor mu?
Tesla FSD Seviye 2 Geniş kullanıcı tabanı Evet
Waymo Seviye 4 Belirli şehirlerde aktif Hayır (bazı alanlarda)
Cruise Seviye 4 Sınırlı bölgelerde Hayır (pilot uygulamalar)

Tesla’nın farklı stratejisi şu: FSD’yi binlerce araca dağıtarak, gerçek dünyadan veri toplayarak yazılımı eğitmek. Bu strateji yenilikçi olsa da, güvenlik risklerini artırıyor.

Yani Full Self-Driving Henüz Full Değil…

Self-Driving Tesla’nın yoldan çıkarak kaza yapması, FSD’nin henüz “tam otonom” olmadığını net şekilde gösteriyor. Araçlar gelişiyor, yazılımlar öğreniyor; ancak sürücülerin dikkatli olması ve bu teknolojinin sınırlarını iyi anlaması gerekiyor.

Elon Musk’ın robotaksi vizyonu etkileyici olabilir ama o vizyona ulaşmak için daha alınacak uzun bir yol olduğu açık. Çünkü teknoloji, insan yaşamıyla iç içe geçtiğinde, mükemmellik değil, güvenlik öncelikli olmalı.

Self-Driving Tesla Yoldan Çıktı ve Takla Attı yazısı ilk önce BeeTekno | Güncel Teknoloji Haberleri ve İncelemeler yayınlanmıştır.