içinde ,

HavalıHavalı İnanılmazİnanılmaz MuhteşemMuhteşem

Ölüleri ‘Diriltmek’ İçin OpenAI GPT-3 Kullanan Geliştirici Cezalandırıldı – Bu Adil Miydi?

‘Deadbot’ yaratma ve kullanma etiği hala tartışılıyor

Makine öğrenimi sistemleri, ahlaki ve sosyal değerlerimiz ve onları yöneten kurallara meydan okuyarak, günlük yaşamlarımızda giderek daha fazla yer alıyor. Bu günlerde sanal asistanlar evin mahremiyetini tehdit ediyor; haber danışmanları dünyayı anlama şeklimizi şekillendiriyor; risk tahmin sistemleri, sosyal hizmet uzmanlarına hangi çocukların istismardan korunacağı konusunda ipucu veriyor; veriye dayalı işe alma araçları, aynı zamanda bir işe girme şansınızı gösteriyor. Ancak, makine öğreniminin etiği birçok kişi için belirsizliğini koruyor.

Belçika’nın UCLouvain kentindeki Etik, Bilgi ve İletişim Teknolojileri kursuna katılan genç mühendisler için konuyla ilgili makaleler ararken, özellikle Project December adlı bir web sitesini kullanan 33 yaşındaki Joshua Barbeau’nun davası beni çok etkiledi. Ölen nişanlısı Jessica ile konuşmayı simüle edecek bir chatbot – bir sohbet robotu – yaptı.

Ölü insanları taklit eden konuşma robotları

Deadbot olarak bilinen bu tür bir chatbot, Barbeau’nun yapay bir “Jessica” ile kısa mesaj alışverişi yapmasına izin verdi. Vakanın etik açıdan tartışmalı doğasına rağmen, salt olgusal yönün ötesine geçen ve vakayı açık bir normatif mercekle analiz eden materyallere nadiren rastladım: Bir deadbot geliştirmek neden doğru veya yanlış, etik olarak arzu edilir ya da kınanabilir?

Bu sorularla boğuşmadan önce, bazı şeyleri bir bağlama oturtalım: Project December, oyun geliştiricisi Jason Rohrer tarafından, para ödemeleri karşılığında, insanların etkileşimde bulunmak istedikleri kişilikle sohbet robotlarını özelleştirmelerini sağlamak için yapıldı. Proje, yapay zeka araştırma şirketi OpenAI tarafından metin üreten bir dil modeli olan GPT-3’ün bir API’si üzerine inşa edildi. Barbeau’nun davası , şirketin yönergeleri GPT-3’ün cinsel, aşk, kendine zarar verme veya zorbalık amacıyla kullanılmasını açıkça yasakladığı için Rohrer ve OpenAI arasında bir sürtüşme başlattı.

OpenAI’nin konumunu aşırı ahlaki olarak nitelendiren ve Barbeau gibi insanların “rıza gösteren yetişkinler” olduğunu savunan Rohrer, December Projesi’nin GPT-3 versiyonunu kapattı.

Hepimizin bir makine öğrenimi olan deadbot geliştirmenin doğru mu yanlış mı olduğu konusunda düşünceleri olsa da, sonuçlarını açıklamak kolay değildir. Bu nedenle, vakanın ortaya çıkardığı etik soruları adım adım ele almak önemlidir.

Londra’nın kuzey batısında, bilgisayar ekranına benzeyen ve ‘iGrave’ lakaplı mezar taşına sahip isimsiz bir mezar görülüyor. Leon Neal/AFP

Barbeau’nun rızası, Jessica’nın Deadbot’unu geliştirmek için yeterli mi?

Jessica gerçek (ölü de olsa) bir insan olduğundan, Barbeau’nun onu taklit eden bir deadbotun yaratılmasına rıza göstermesi yetersiz görünüyor. İnsanlar öldüklerinde bile başkalarının canlarının istediğini yapabileceği varlıklar değildir. Bu yüzden toplumlarımız ölülere saygısızlık etmeyi veya anılarına saygısızlık etmeyi yanlış buluyor. Başka bir deyişle, ölümün, insanların ahlaki olarak uygun bir şekilde var olmayı bıraktığı anlamına gelmediği sürece, ölülere karşı belirli ahlaki yükümlülüklerimiz vardır.

Aynı şekilde, ölünün temel haklarını (örneğin, mahremiyet ve kişisel veriler) korumamız gerekip gerekmediğine dair tartışmalara açıktır. Birinin kişiliğini kopyalayan bir deadbot geliştirmek, son derece hassas özellikleri ortaya çıkardığı kanıtlanmış sosyal ağ verileri (Microsoft veya Eternime’nin önerdiğine bakın) gibi büyük miktarda kişisel bilgi gerektirir.

İnsanların verilerini hayattayken rızaları olmadan kullanmanın etik olmadığı konusunda hemfikirsek, öldükten sonra bunu yapmak neden etik olsun ki? Bu anlamda, bir deadbot geliştirirken, kişiliği yansıtılan kişinin – bu durumda Jessica’nın onayını istemek mantıklı görünüyor.

Ölüm bizi sevdiklerimizden ayırıyor ama makine öğrenimi onları dijital hayata geri getirebilir mi? Philippe Lorez/AFP

Taklit edilen kişi yeşil ışık yaktığında

Dolayısıyla ikinci soru şudur: Jessica’nın rızasını, deadbotunun yapılmasında etik olarak değerlendirmek için yeterli olur mu? Ya anısına zarar verilirse?

Rızanın sınırları gerçekten de tartışmalı bir konudur. Paradigmatik bir örnek olarak, kurbanın yenmeyi kabul etmesine rağmen müebbet hapis cezasına çarptırılan “Rotenburg Yamyam”ını alın. Bu bağlamda, ister fiziki (kendi hayati organlarını satmak), isterse soyut (kendi haklarından vazgeçmek) kendimize zarar verebilecek şeylere rıza göstermenin etik olmadığı ileri sürülmüştür.

Bir şeyin ölüler için hangi spesifik terimlerle zararlı olabileceği, tam olarak analiz etmeyeceğim özellikle karmaşık bir konudur. Ancak şunu belirtmekte fayda var ki, ölüler yaşayanlarla aynı şekilde zarar görmese veya gücenmese bile, bu onların kötü eylemlere karşı savunmasız oldukları veya bunların etik olduğu anlamına gelmez. Ölülerin onurlarına, itibarlarına veya haysiyetlerine zarar verebilir (örneğin, öldükten sonra karalama kampanyaları) ve ölülere saygısızlık, onlara yakın olanlara da zarar verir. Ayrıca, ölülere karşı kötü davranmak, bizi daha adaletsiz ve genel olarak insanların onuruna daha az saygılı bir topluma haline getirir.

Son olarak, makine öğrenimi sistemlerinin şekillendirilebilirliği ve tahmin edilemezliği göz önüne alındığında, taklit edilen kişi tarafından (hayattayken) sağlanan rızanın, potansiyel sonuçları üzerinde açık bir çekten çok daha fazlasını ifade etmeme riski vardır.

Bütün bunlar göz önüne alındığında, Deadbot’un geliştirilmesi veya kullanılması, taklit edilen kişinin kabul ettiğine uygun değilse, rızalarının geçersiz sayılması gerektiği sonucuna varmak mantıklı görünüyor. Ayrıca, açıkça ve kasıtlı olarak onurlarına zarar veriyorsa, rızaları bile etik olarak kabul etmek için yeterli olmamalıdır.

Sorumluluk kimin?

Üçüncü bir konu, yapay zeka sistemlerinin herhangi bir tür insan davranışını taklit etmeyi amaçlayıp arzulamamasıdır (bunun mümkün olup olmamasından bağımsız olarak).

Bu, AI alanında uzun süredir devam eden bir endişedir ve Rohrer ile OpenAI arasındaki anlaşmazlıkla yakından bağlantılıdır. Örneğin, başkalarını önemseyen veya siyasi kararlar alabilen yapay sistemler geliştirmeli miyiz? Görünüşe göre bu becerilerde insanları diğer hayvanlardan ve makinelerden farklı kılan bir şey var. Bu nedenle, sevdiklerinizi değiştirmek gibi tekno-çözümcü amaçlara yönelik AI’yı araçsallaştırmanın, bizi insan olarak karakterize eden şeyin devalüasyonuna yol açabileceğini belirtmek önemlidir .

Dördüncü etik soru, özellikle zararlı etkiler söz konusu olduğunda, bir deadbotun sonuçlarından kimin sorumlu olduğudur.

Jessica’nın deadbotunun, anısını küçük düşürecek veya Barbeau’nun zihinsel sağlığına geri dönülmez şekilde zarar verecek şekilde performans göstermeyi özerk olarak öğrendiğini hayal edin. Bunun sorumluluğunu kim alacak? Yapay zeka uzmanları bu belirsiz soruyu iki ana yaklaşımla yanıtlıyor: birincisi, kendi özel ilgi alanları ve dünya görüşlerine göre yaptıkları sürece, sistemin tasarımı ve geliştirilmesine dahil olan kişilere sorumluluk düşüyor; ikincisi, makine öğrenimi sistemleri bağlama bağlıdır, bu nedenle çıktılarının ahlaki sorumlulukları, onlarla etkileşime giren tüm aracılar arasında dağıtılmalıdır.

Kendimi ilk pozisyona yaklaştırıyorum. Bu durumda, OpenAI, Jason Rohrer ve Joshua Barbeau’yu içeren deadbotun açık bir birlikte yaratılması olduğu için, her bir tarafın sorumluluk seviyesini analiz etmenin mantıklı olduğunu düşünüyorum.

İlk olarak, sistemlerini cinsel, aşk, kendine zarar verme veya zorbalık amacıyla kullanmayı açıkça yasakladıktan sonra OpenAI’yi sorumlu kılmak zor olacaktır.

Rohrer’e önemli bir ahlaki sorumluluk atfetmek mantıklı görünüyor çünkü o: (a) deadbotu yaratmayı mümkün kılan sistemi açıkça tasarladı; (b) potansiyel olumsuz sonuçlardan kaçınmak için önlem almadan yaptı; (c) OpenAI’nin yönergelerine uymadığının farkındaydı; ve (d) bundan yararlandı.

Ve Barbeau, Deadbot’u Jessica’nın belirli özelliklerine göre özelleştirdiği için, anısını bozması durumunda onu ortak olarak sorumlu tutmak meşru görünüyor.

Belirli koşullar altında, Etik

Dolayısıyla, bir makine öğrenimi deadbotu geliştirmenin etik olup olmadığına dair ilk genel sorumuza geri dönersek, şu koşullarla olumlu bir cevap verebiliriz:

  • hem taklit edilen kişi hem de onu özelleştiren ve onunla etkileşime giren kişi, sistemin tasarımı, geliştirilmesi ve kullanımları hakkında mümkün olduğunca ayrıntılı bir açıklama için özgür rızalarının verilmesi;
  • taklit edilen kişinin rıza gösterdiği şeye uymayan veya onuruna aykırı olan geliştirmeler ve kullanımlar yasaktır;
  • gelişiminde yer alan insanlar ve bundan kazanç sağlayanlar, potansiyel olumsuz sonuçlarından sorumluluk sahibidirler. Hem geçmişe dönük olarak, yaşanmış olayları hesaba katmak için, hem de ileriye dönük olarak, gelecekte yaşanması muhtemel olan yanlışları önlemek için.

Bu vaka, makine öğrenimi etiğinin neden önemli olduğuna örnek verilmelidir. Ayrıca, insanları daha iyi bilgilendirebilecek ve AI sistemlerini daha açık, sosyal olarak adil ve temel haklarla uyumlu hale getirmek için politika önlemleri geliştirmemize yardımcı olabilecek bir kamu tartışması açmanın neden gerekli olduğunu da göstermektedir.

Sara Suárez-Gonzalo, Doktora Sonrası Araştırmacı, UOC – Universitat Oberta de Catalunya’nın bu makalesi, Creative Commons lisansı altında The Conversation’dan yeniden yayınlanmıştır. Orijinal makaleyi okuyun.

Editör: Cansın Kiray – 13.08.2022

Rapor Et

Ne düşünüyorsun?

Yorumlar

Bir cevap yazın

      Fransız Edebiyatına Ne Kadar Hakimsin?

      İran Sineması, İslam Devrimi ve Dönem Eleştirisi