içinde ,

OTONOM arabalar çarptığında, sorumlu kim olacak?

Mahkemelerin ‘kara kutunun’ içinde ne olduğunu bilmesi gerekiyor

Avustralya’da sürücüsüz bir otomobilin karıştığı ilk ciddi kaza bu yıl Mart ayında meydana geldi. Bir yaya, sürücünün “Otopilot” modunda olduğunu iddia ettiği Tesla Model 3’ün çarpması sonucu yaralandı. Bu olay birçok tartışmayı beraberinde getirdi ama akıllardaki en önemli soru şu şekildeydi; Otonom araba kaza yaptığında kim sorumlu olacak?

Otonom arabalar, bilinen diğer adlarıyla robot araba, sürücüsüz araba, çevresini algılayabilen ve çok az insan girdisi veya hiç girdi olmadan hareket edebilen bir otomobil türüdür. Otonom arabalar, yeni bir teknoloji olmasına rağmen özellikle yurtdışında oldukça popüler ve satın alınan ürün konumunda. Peki Otonom arabalar kaza yaptığında kim sorumlu olacak?

Bu yeni teknolojinin hata yapması durumunda o ürünün üreticisinin veya yazılım geliştiricisinin güvenlik sorumluluklarını yerine getirip getirmediğini sormalıyız. Bu tür durumlarda mahkemeler, münferit olaylar dışında genelde Modern İhmal Yasası’nı esas alıyor. Modern İhmal Yasası’nın kökeni ise bir kadının zencefilli bira şişesinde çürüyen bir salyangoz keşfettiği ünlü Donoghue v Stevenson davasından gelmektedir. Üretici, salyangozların davranışını doğrudan tahmin etmesi veya kontrol etmesi beklendiği gibi sonuçlanmadığı ve şişeleme sürecinin güvenli olmadığı için ihmalkar bulunmuştu. Bu mantıkla, sürücüsüz arabalar gibi yapay zeka tabanlı sistemlerin üreticileri ve geliştiricileri, “otonom” sistemin yaptığı her şeyi öngöremeyebilir ve kontrol edemeyebilir ancak riskleri azaltmak için önlemler alabilirler. Risk yönetimi, test etme, denetim ve izleme uygulamaları yeterince iyi değilse, sorumlu tutulmaları gerekir.

Peki ne kadar risk yönetimi yeterlidir?

Aslında sorulması gereken soru “Ne kadar özen ve ne kadar risk yönetimi yeterli?” olacaktır. Karmaşık yazılımlarda her hatayı önceden test etmek imkansızdır. Geliştiriciler ve üreticiler olası riski nasıl bilecekler? Neyse ki, mahkemeler, düzenleyiciler ve teknik standartlar kurumları, riskli ancak faydalı faaliyetler için özen ve sorumluluk standartlarını belirleme konusunda deneyime sahip. Standartlar, risklerin maliyete bakılmaksızın “mümkün olduğunca” azaltılmasını gerektiren Avrupa Birliği’nin yapay zeka yönetmeliğindeki taslağı gibi çok titiz olabilir. Veya daha az olası veya daha az ciddi riskler için daha az katı yönetime izin veren veya risk yönetiminin riskli faaliyetin genel faydasını azaltacağı Avustralya ihmal yasası gibi olabilirler.

Mahkemeler Yapay Zeka karşısında ne yapmalı?

Riskler için net bir standardımız olduğunda, onu uygulamak için bir yola ihtiyacımız var. Bu yaklaşım, düzenleyiciye ceza uygulama yetkisi konusunda yol gösterebilir. Örneğin, rekabet davalarında olduğu gibi. Yapay zeka sistemlerinden zarar gören kişiler de dava açabilmelidir. Kendi kendini süren arabalarla ilgili davalarda, üreticilere karşı açılan davalar özellikle önemli olacaktır. Ancak, bu tür davaların etkili olabilmesi için mahkemelerin yapay zeka sistemlerinin süreçlerini ve teknik parametrelerini ayrıntılı olarak anlaması gerekecektir. Üreticiler genellikle ticari nedenlerle bu tür detayları açıklamamayı tercih ediyor. Ancak mahkemelerin, davayı kolaylaştırmak için ticari çıkarları uygun miktarda açıklama ile dengeleme prosedürleri zaten mevcut. Yapay zeka sistemlerinin kendisinde bulunan kara kutular olduğunda daha fazla bir zorluk ortaya çıkabilir. Örneğin, Tesla’nın otomatik pilot işlevi, geliştiricilerin bile belirli bir sonuca nasıl veya neden ulaştığından asla tam olarak emin olamayacakları popüler bir yapay zeka sistemi türü olan “derin sinir ağlarına” dayanır.

Kara kutu çözüm olur mu?

Modern yapay zeka sistemlerinin kara kutusunu açmak, yeni bir bilgisayar bilimi ve beşeri bilimler dalgasının odak noktasıdır: “Açıklanabilir Yapay Zeka” hareketi olarak adlandırılan hareket. Amaç, geliştiricilerin ve son kullanıcıların, sistemlerin nasıl oluşturulduğunu değiştirerek veya olaydan sonra açıklamalar üreterek yapay zeka sistemlerinin nasıl karar verdiğini anlamalarına yardımcı olmaktır. Örnek vermek gerekirse, bir yapay zeka sistemi yanlışlıkla bir dış yapraklar resmini kurt olarak sınıflandırır. “Açıklanabilir bir yapay zeka” yöntemi, ön plandaki hayvan yerine görüntünün arka planındaki kara odaklanan sistemi ortaya çıkarır.

Bunun bir davada nasıl kullanılabileceği, belirli yapay zeka teknolojisi ve neden olduğu zarar dahil olmak üzere çeşitli faktörlere bağlı olacaktır. Önemli bir endişe, yaralı tarafa yapay zeka sistemine ne kadar erişim sağlandığı olacaktır.

Editör: Fatih Düz – 12.06.2022

Rapor Et

Yazar

Berk Özveri tarafından yazıldı

Liste UstasıMakale YazarıÖncü

Ne düşünüyorsun?

Yorumlar

Bir cevap yazın

    Yalanlar gerçek olursa!

    Türkiye koskoca bir kadın mezarlığına dönüştü