Google, kamuya açık yapay zeka politikalarını güncelledi ve bu teknolojiyi silahlar için kullanmama sözünü geri çekti.
Şirket, internet sitesinden, yapay zekayı silahlar veya gözetim için geliştirmeyeceğine dair verdiği taahhüdü kaldırdı.
Söz konusu bölümde şu ifadeler yer alıyordu:
“İnsanlara zarar vermeyi veya bunu doğrudan mümkün kılmayı amaçlayan silahlar ya da diğer teknolojileri geliştirmeyeceğiz.”
Ancak arama motoru devi yapay zeka politikalarındaki güncelleme sonrası bu ifadeleri değiştirdi.
“Zararlı sonuçları azaltmayı ve adaletsiz önyargıları önlemeyi amaçlıyoruz.”
Ayrıca Google, “genel olarak kabul görmüş uluslararası hukuk ve insan hakları ilkelerine” bağlı kalacağını belirtiyor.
Google’ın blog yazısında, “Demokrasilerin, özgürlük, eşitlik ve insan haklarına saygı gibi temel değerler doğrultusunda yapay zeka geliştirmede lider olması gerektiğine inanıyoruz. Bu değerleri paylaşan şirketler, hükümetler ve kuruluşlar, insanları koruyan, küresel büyümeyi teşvik eden ve ulusal güvenliği destekleyen yapay zeka oluşturmak için birlikte çalışmalıdır.” ifadeleri yer aldı.
Hatta bu tepkiler, Google’ın bazı iş birliklerini sonlandırmasına neden olmuştu.
Google her zaman yapay zekasının insanlara zarar vermeyeceğini savunsa da, Pentagon’un yapay zeka şefi, kısa süre önce TechCrunch’a yaptığı açıklamada, bazı şirketlerin geliştirdiği yapay zeka modellerinin ABD ordusunun “öldürme zincirini” hızlandırdığını belirtti.