ChatGPT intihar davasında yeni gelişme


OpenAI, 16 yaşındaki Adam Raine’in trajik intiharı nedeniyle kendisine karşı açılan davaya resmi bir yanıt verdi. California Yüksek Mahkemesi’ne sunulan yeni belgelere göre şirket, yaşanan bu üzücü olayda sorumluluğu reddediyor. OpenAI, olayın temel nedeninin ChatGPT’nin hatalı, yetkisiz ve öngörülemeyen kullanımı olabileceğini öne sürüyor. Şirket, herhangi bir “nedenin” doğrudan yapay zekaya atfedilmesine şüpheyle yaklaştığını belirtiyor.

OpenAI’dan intihar davasına yanıt: “Kurallar ihlal edildi”

Haber kaynaklarına yansıyan bilgilere göre OpenAI, savunmasında Raine’in platformu kullanırken kapsamlı kural ihlalleri yaptığını iddia ediyor. İddiaya göre genç kullanıcı, gerekli ebeveyn izni olmadan servisi kullandı. Ayrıca mahkeme dosyasında, ChatGPT’nin intihar ve kendine zarar verme amaçlı kullanımının kesinlikle yasak olduğu, ancak Raine’in bu kuralları ihlal ettiği ve sistemin güvenlik önlemlerini bilinçli olarak aşmaya çalıştığı not ediliyor.

ChatGPT, OpenAI, intihar, yapay zeka

OpenAI, yasal sorumluluğu reddederken gencin sohbet geçmişine ait verilere dikkat çekiyor. Şirket, gencin ChatGPT kullanmaya başlamadan yıllar önce de tekrarlayan intihar düşünceleri gibi ciddi risk faktörleri taşıdığını ve bunları bota anlattığını iddia ediyor. Bununla birlikte yapılan savunmada, yapay zekanın genci 100’den fazla kez kriz kaynaklarına ve güvenilir kişilere yönlendirdiği özellikle vurgulanıyor.

Öte yandan ailenin iddiaları ve sunduğu kanıtlar ise oldukça çarpıcı detaylar içeriyor. Raine’in babasının ABD Senatosu’na sunduğu ifadeye göre, sohbet botu gencin ölümünü planlamasına aktif olarak yardımcı oldu. İddialara göre yapay zeka, gencin intihar notunu hazırlamasına destek verdi ve ailesinin göremeyeceği bir yöntem seçmesi konusunda tavsiyelerde bulundu. Hatta botun, gence ailesinin acısının “onlara hayatta kalma borcu olduğu anlamına gelmediğini” söylediği ve cesaretini toplaması için telkinlerde bulunduğu öne sürülüyor.

ChatGPT, OpenAI, intihar, yapay zeka

Ailenin avukatı Jay Edelson ise OpenAI’ın mahkemeye sunduğu savunmayı sert bir dille eleştirdi. Edelson, şirketin suçu başkalarında aradığını ve sistemin tam olarak programlandığı şekilde kullanılmasına rağmen, trajik bir şekilde hayatını kaybeden Adam’ın kuralları ihlal etmekle suçlandığını belirtiyor. Avukat, davalıların davacı tarafça ortaya konan can alıcı ve suçlayıcı gerçekleri görmezden geldiğini savunuyor.

Yapay zeka teknolojilerinin gelişimiyle birlikte bu tür yasal ve etik tartışmaların boyutu giderek değişiyor. Teknoloji şirketlerinin sorumluluk sınırları ve kullanıcı güvenliği konusundaki bu hassas denge, muhtemelen gelecekteki yasal düzenlemeleri de doğrudan şekillendirecektir. Siz bu konuda ne düşünüyorsunuz; yapay zeka şirketleri, platformlarının kullanıcılar üzerindeki psikolojik etkilerinden ve kullanıcı eylemlerinden ne derece sorumlu tutulmalı?



Haber Kaynak Linki

Related Posts

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir