Google'ın çalışanlarından araştırma makalesinde "olumlu bir üslup tutmalarını" istediği bildirildi
Google, cinsiyet, ırk ve politik ideoloji gibi hassas konulardaki araştırma makaleleri için bir inceleme katmanı ekledi. Üst düzey bir yönetici ayrıca araştırmacılara bu yaz bir gazetede "olumlu bir üslup tutmaları" talimatı verdi. Haber ilk olarak Reuters tarafından bildirildi .
Politikada, "Teknolojideki gelişmeler ve dış çevremizin artan karmaşıklığı, görünüşte saldırgan olmayan projelerin etik, itibar, düzenleyici veya yasal sorunlar ortaya çıkardığı durumlara giderek daha fazla yol açıyor" şeklinde okundu. Üç çalışan Reuters'e kuralın Haziran ayında başladığını söyledi.
Reuters, şirketin ayrıca çalışanlardan birçok durumda "teknolojisini olumsuz bir şekilde yansıtmaktan kaçınmalarını" istedi.
Reuters'e göre, YouTube gibi platformlarda içeriği kişiselleştirmek için kullanılan AI tavsiyesi üzerine bir makale üzerinde çalışan çalışanlara "olumlu bir üslup yaratmak için büyük özen göstermeleri" söylendi. Yazarlar daha sonra makaleyi "Google ürünlerine yönelik tüm referansları kaldıracak" şekilde güncellediler.
Reuters, yabancı dilleri anlamak için yapay zekanın kullanılmasına ilişkin başka bir makale, "Google Translate ürününün nasıl hata yaptığına dair bir referansı yumuşattı" diye yazdı. Değişiklik, gözden geçirenlerden gelen bir talebe yanıt olarak geldi.
Google'ın standart inceleme süreci, araştırmacıların yanlışlıkla ticari sırları açıklamamasını sağlamak içindir. Ancak "hassas konular" incelemesi bunun ötesine geçiyor. Google'ın kendi hizmetlerini önyargı açısından değerlendirmek isteyen çalışanlardan önce hukuk, halkla ilişkiler ve politika ekiplerine danışmaları istenir. Bildirildiğine göre diğer hassas konular arasında Çin, petrol endüstrisi, konum verileri, din ve İsrail yer alıyor.
Araştırma devinin yayın süreci, AI etikçisi Timnit Gebru'nun Aralık ayı başlarında işten çıkarılmasından bu yana gündemde . Gebru, Google AI araştırma çalışanları için dahili bir grup olan Google Brain Women and Allies listerv'e gönderdiği bir e-postayla işten çıkarıldığını söyledi. İçinde, Google yöneticilerinin onu büyük ölçekli dil işleme modellerinin tehlikeleri üzerine bir makaleyi geri çekmeye zorladıklarından bahsetti. Google'ın yapay zeka başkanı Jeff Dean, raporu son tarihe çok yakın bir zamanda gönderdiğini söyledi. Ancak Gebru'nun kendi ekibi , politikanın "eşit olmayan ve ayrımcı bir şekilde" uygulandığını söyleyerek bu iddiayı geri püskürttü .
The Washington Post'a göre Gebru, gazeteyle ilgili olarak Eylül ayında Google'ın Halkla İlişkiler ve politika ekibine ulaştı . Arama motorunda büyük dil işleme modelleri kullandığı için şirketin araştırmanın belirli yönleriyle sorun yaşayabileceğini biliyordu. Makalede değişiklik yapmak için son tarih Ocak 2021'in sonuna kadar değildi ve araştırmacılara herhangi bir endişeye yanıt vermeleri için bolca zaman tanıdı.
Ancak Şükran Günü'nden bir hafta önce, Google Araştırma Başkan Yardımcısı Megan Kacholia, Gebru'dan kağıdı geri çekmesini istedi. Ertesi ay Gebru kovuldu.
Google, The Verge'den gelen yorum talebine hemen yanıt vermedi .



Yorum Gönder