OpenAI tarafından geliştirilen ChatGPT, dünyanın en popüler yapay zekâ uygulamalarından biri haline gelirken, kullanıcıların artan talepleriyle birlikte etik sınırlar yeniden çizildi.
Şirketin açıklamasına göre, ChatGPT artık hukuki, tıbbi ve finansal konularda doğrudan danışmanlık hizmeti vermeyecek; bunun yerine genel ilkeleri açıklayıp kullanıcıları uzmanlara yönlendirecek.

Hukukta: Avukat yerine geçmeyecek

Özellikle büyük ölçekli davalarda bazı kullanıcıların ChatGPT’den hukuki yardım istemesi, OpenAI’yi bu alanda yeni kısıtlamalara yöneltti.
Bundan böyle ChatGPT yalnızca hukuk sisteminin genel işleyişini anlatabilecek; ancak dava yönlendirmesi, savunma önerisi veya belge hazırlanması gibi konularda bilgi vermeyecek.
Kullanıcılar, bu tür durumlarda avukat veya resmi hukuk danışmanlarına yönlendirilecek.

S 885A401De7D9337543C4F0C38328Eb2F9Ce70802

Sağlıkta: İlaç ve dozaj bilgisi yok

Sağlık alanında da benzer şekilde ChatGPT’nin ilaç ismi, dozaj veya tanı önerisi vermesi yasaklandı.
Uygulama artık yalnızca genel sağlık ilkeleri hakkında bilgi paylaşabilecek ve kullanıcılara doktor veya sağlık kuruluşuna başvurma uyarısı yapacak.

Bu kararın gerekçesi, yanlış yönlendirmeler sonucu yaşanabilecek sağlık risklerini önlemek.
OpenAI, özellikle “göğsümde şişlik var” gibi bir belirti girildiğinde, yapay zekânın yanlış sonuçlar çıkarma olasılığının yüksek olduğuna dikkat çekti.

Finansta: “Yatırım tavsiyesi değildir” dönemi

Finans alanında da yeni kurallar devreye giriyor.
ChatGPT artık borsa, kripto para veya yatırım araçlarıyla ilgili doğrudan yönlendirme yapmayacak; yanıtlarında “yatırım tavsiyesi değildir” uyarısı bulunacak.
Bu değişiklik, yapay zekânın kullanıcının risk profili veya mali geçmişi hakkında bilgi sahibi olmamasından kaynaklanan riskleri azaltmayı amaçlıyor.

S D15Eabf3Ef4Ef786A34Bc2B6Ed00369C46Bb8B14

Euromos’ta antik astronomi buluşmasıyla gençler gökyüzünü keşfetti
Euromos’ta antik astronomi buluşmasıyla gençler gökyüzünü keşfetti
İçeriği Görüntüle

Psikolojik destek ve ödev yardımı da sınırlanıyor

OpenAI, ChatGPT’nin psikolojik danışmanlık veya terapi amaçlı kullanılmasının da riskli olduğunu belirtti.
Yapay zekânın duygusal analiz yeteneğinin sınırlı olduğu, bu nedenle psikolojik destek isteyen kullanıcıların profesyonellere yönlendirilmesi gerektiği vurgulandı.

Ayrıca öğrencilerin sıklıkla kullandığı ödev hazırlama özelliklerinde de etik sınırlar genişletilerek eğitici, yönlendirici ama doğrudan çözücü olmayan bir yapı hedefleniyor.

Etik tartışmalar yeniden gündemde

Uzmanlar, bu kısıtlamaların yapay zekânın yanlış yönlendirme riski ve etik sorumluluğu açısından önemli olduğunu belirtiyor.
ChatGPT’nin “risk analizi yapamaması” ve “kullanıcının duygu durumunu doğru algılayamaması” eleştirilerinin ardından gelen bu düzenlemeler, yapay zekâ kullanımında güvenlik ve etik standartların güçlendirilmesi olarak değerlendiriliyor.

Kaynak: Haber Merkezi