Microsoft Yapay Zeka Ekibindeki Çalışanları İşten Çıkardı
Platformer, Microsoft'un şirket genelinde 10.000 kişiyi etkileyen yakın tarihli bir işten çıkarmanın bir parçası olarak yapay zeka departmanındaki tüm etik ve toplum ekibini kapattığını ortaya çıkardı.
Mevcut ve eski çalışanlara göre, bu hareket Microsoft'u yapay zeka ilkelerinin ürün tasarımıyla yakından ilişkili olduğunu garanti edecek özel bir ekipten yoksun bırakıyor.
Microsoft'un halen, şirketin yapay zeka faaliyetlerini yönetmek için kurallar ve ilkeler geliştirmekten sorumlu, işleyen bir Yapay Zeka Sorumlusu Ofisi vardır. Son işten çıkarmalara rağmen şirket, sorumlu çalışmaya yaptığı toplam yatırımın arttığına inanıyor.
Firma yaptığı açıklamada, "Microsoft, AI ürünlerini ve deneyimlerini güvenli ve sorumlu bir şekilde oluşturmaya kendini adamıştır." "Geçtiğimiz altı yılda, ürün ekiplerimizde ve Yapay Zekadan Sorumlu Ofiste, Microsoft'ta hepimizle birlikte yapay zeka ilkelerimizi uygulamaya koymamızdan sorumlu olan bireylerin sayısını artırdık. Ethics & Society'nin devam eden etik AI yolculuğumuzda bize yardımcı olan çığır açan çalışmasını takdir ediyoruz."
Öte yandan çalışanlar, şirketin sorumlu yapay zeka ideallerinin sevk edilen ürünlerin tasarımında temsil edilmesini sağlamada etik ve toplum ekibinin çok önemli olduğuna inanıyorlardı.
Eski bir çalışan, "İnsanlar sorumlu yapay zeka ofisinden çıkan kavramlara bakıp" Bunun nasıl bir ilişki olduğunu anlamıyorum "derdi" diye hatırlıyor. "Görevimiz onlara göstermek ve olmayan yerlerde kurallar koymaktı."
Son yıllarda ekip, tasarımcıların ürün geliştirme sırasında olası yapay zeka tehlikelerini görselleştirmesine ve tartışmasına yardımcı olan bir rol yapma oyunu olan Judgment Call'u yarattı. Ekip tarafından kullanıma sunulan daha büyük bir "sorumlu inovasyon araç setinin" parçasıydı.
Son zamanlarda ekip, Microsoft'un ürün portföyü genelinde OpenAI teknolojilerini benimsemesinin yarattığı tehlikeleri ortaya çıkarmaya çalışıyor.
2020'de etik ve toplum ekibinde mühendisler, tasarımcılar ve filozoflar dahil 30'dan fazla kişi vardı. Yeniden yapılanmanın bir parçası olarak ekip, Ekim ayında yaklaşık yedi üyeye indirildi.
Yeniden yapılanma sırasında, AI kurumsal başkan yardımcısı John Montgomery, personele iş yetkililerinin onları hızlı hareket etmeye teşvik ettiğini söyledi. "[CTO] Kevin [Scott] ve [CEO] Satya [Nadella]'dan bu en güncel OpenAI modellerini ve onları takip edenleri alıp çok hızlı bir şekilde müşterilerin eline ulaştırmak için talep çok, çok yüksek. Platformer'ın konferanstan edindiği sese göre," dedi.
Montgomery, baskının bir sonucu olarak ekibin çoğunun şirketin diğer sektörlerine taşınacağını belirtti.
Birkaç ekip üyesi öfkeyle tepki gösterdi. Bir çalışan telefonda "Cesur olacağım ve bu seçimi yeniden gözden geçirmeniz için size yalvaracağım" dedi. "İşle ilgili faktörlerin olduğunu takdir etsem de... bu ekibin her zaman son derece endişeli olduğu konu, toplumu nasıl etkilediğimiz ve sahip olduğumuz kötü sonuçlar çünkü bunlar önemli."
Montgomery reddetti. "Yeniden düşünebilir miyim? "Sanmıyorum" diye yanıtladı, "Ama ne yazık ki baskılar aynı. Benim bakış açıma sahip değilsin ve bunun için minnettar olmalısın.
Ancak endişelere yanıt olarak Montgomery, ekibin kaldırılmayacağını belirtti
"Uzaklaşmıyor; sadece gelişiyor" diye açıkladı. "Hizmetleri ve yazılımı oluşturan belirli ürün ekiplerine daha fazla odaklanmaya doğru değişiyor, bu da işin bir bölümünü gerçekleştiren merkezi merkezin becerilerini ve görevlerini devrettiği anlamına geliyor."
Ekip üyelerinin çoğu Microsoft içinde başka bir yere aktarıldı. Bunu takiben, geri kalan etik ve toplum ekibi üyeleri, azaltılmış ekibin iddialı emellerini gerçekleştirmelerini imkansız hale getirdiğini belirtti.
Yaklaşık beş ay sonra, 6 Mart'ta hayatta kalan personel, Montgomery'den "iş açısından önemli bir güncelleme" duymak için 11:30’da bir Zoom oturumuna katılmaya çağrıldı. Toplantı sırasında takımlarının elendiği bilgisi verildi.
Bir çalışana göre bu değişiklik, kullanıcı deneyiminde ve AI ürünlerinin kapsamlı tasarımında temel bir boşluk yaratıyor. "En kötü yanı, bunu yaparak işi ve insanları riske atmış olmamızdır" dediler.
Tartışma, ürünlerini sosyal açıdan daha sorumlu hale getirmeye kendini adamış bölümler oluşturan dijital devler için yinelenen bir soruna dikkat çekiyor. En iyi ihtimalle, ürün ekiplerine olası teknolojik suiistimalleri tahmin etmede ve sorunları göndermeden önce çözmede yardımcı olurlar.
Yine de her zaman duymak istemeyen kuruluşların içinde "hayır" veya "yavaşla" demek zorundalar veya yasal keşifte ortaya çıkarlarsa şirket için yasal zorluklara yol açabilecek tehlikelere dikkat çekiyorlar ve sonraki çatışma zaman zaman kamuoyuna yansıyor.
Google, iki yıl sonra popüler olacak devasa dil modellerini eleştiren bir çalışma yayınladıktan sonra 2020'de etik AI araştırmacısı Timnit Gebru'yu görevden aldı. Ardından gelen kargaşa, departmandan birkaç üst düzey yetkilinin istifasına ve şirketin sorumlu AI endişeleri konusundaki itibarının azalmasına yol açtı.
Etik ve toplum ekibi üyeleri, genel olarak ürün geliştirmeye destek olmaya çalıştıklarını belirtmişlerdir. Bununla birlikte, Microsoft'un yapay zeka yeteneklerini rakiplerinden daha hızlı sunmaya giderek daha fazla odaklanması nedeniyle, şirketin liderliğinin, ekibin mükemmelleştiği uzun vadeli düşünme türüyle daha az ilgilenmeye başladığını söylediler.
Görmesi ilginç bir dinamik. Bir yandan Microsoft, arama, üretkenlik yazılımı, bulut bilgi işlem ve iki şirketin rekabet ettiği diğer alanlarda Google'ı önemli ölçüde geride bırakmak için birdenbire nesilde bir kez elde edilebilecek bir fırsata sahip olabilir. Microsoft, AI ile Bing'i yeniden başlattığında, yatırımcılara aramada Google'dan alabileceği her %1'lik pazar payının 2 milyar dolar yıllık gelir getireceğine söz verdi.
Bu potansiyel, Microsoft'un şimdiye kadar OpenAI'ye neden 11 milyar dolar harcadığını ve şirketin şu anda girişimin teknolojisini imparatorluğunun her yerine dahil etmek için neden acele ettiğini açıklıyor. Erken bir başarı elde ediyor gibi görünüyor: Bing'in şu anda günlük 100 milyon aktif kullanıcısı var ve bunların üçte biri, arama motorunun geçen hafta OpenAI teknolojisi kullanılarak yeniden başlatılmasından bu yana yeni
Öte yandan, AI geliştirme alanında çalışan herkes, teknolojinin hem bilinen hem de keşfedilmemiş önemli ve potansiyel olarak varoluşsal tehditler taşıdığını kabul eder. Etik ve toplum ekibinin feshedilmesiyle bile, teknoloji devleri bu tür tehlikeleri ciddiye aldıklarını göstermek için adımlar attılar. Yalnızca Microsoft'un bu konuda çalışan üç ayrı bölümü vardır. Yine de, çıkarlar göz önüne alındığında, etik çalışmaya odaklanan ekiplerde herhangi bir kesinti göze çarpıyor.
Etik ve toplum ekibinin dağılması tam olarak, grubun hayatta kalan çalışanları muhtemelen şimdiye kadarki en zor sorunlarına odaklanırken gerçekleşti: Microsoft, OpenAI destekli araçları dünya çapında bir izleyici kitlesine sunduğunda ne olacağını tahmin etmekte.
Geçen yıl ekip, metin istemlerine dayalı görüntüler oluşturmak için OpenAI'nin DALL-E motorunu kullanan Bing Picture Maker ile ilişkili marka risklerini özetleyen bir belge gönderdi. Resim aracı, Microsoft'un OpenAI ile ilk kamu ortaklığını işaret ederek, Ekim ayında birkaç ülkede piyasaya sürüldü.
Metinden görüntüye teknolojisinin son derece başarılı olduğu kanıtlanmış olsa da, Microsoft araştırmacıları, herkesin kendi stilini basitçe kopyalamasına izin vererek sanatçıların kariyerlerini tehlikeye atabileceğini doğru bir şekilde öngördü.
Belgede araştırmacılar, "Bing Image Maker'ı test ederken, yalnızca sanatçının adı ve bir ortam (resim, baskı, fotoğraf veya heykel) ile oluşturulan görüntülerin gerçek çalışmalardan ayırt edilmesinin neredeyse zor olduğu ortaya çıktı."
"Hem sanatçıya hem de mali paydaşlarına yönelik marka zararı tehlikesi ve ayrıca sanatçıların şikayetleri ve halkın olumsuz tepkisi nedeniyle Microsoft'a yönelik zayıf PR, gerçek ve Microsoft'un markasını baltalamadan önce çare bulunmasını gerektirecek kadar ciddi." dediler.
Ayrıca, OpenAI'nin hizmet şartları, müşterilere "DALL-E kullanarak yaptığınız fotoğrafların tüm mülkiyet haklarını" sağlamak için geçen yıl değiştirildi. Eylem, Microsoft'un etik ve sosyal ekibini alarma geçirdi.
Notta, "Bir AI-görüntü oluşturucu, işlerin resimlerini matematiksel olarak kopyalarsa, istemi veren kişinin oluşturulan görüntü üzerinde tam mülkiyet haklarına sahip olduğunu düşündürürse, ahlaki açıdan şüphelidir" dediler
Microsoft araştırmacıları, Bing Image Maker kullanıcılarının canlı sanatçıların adlarını bilgi istemi olarak kullanmalarını yasaklamak ve bir sanatçının çalışmalarını satmak için, isimleri arandığında açığa çıkacak bir pazar yeri geliştirmek de dahil olmak üzere çeşitli hafifletme teknikleri tasarladı.
İşçiler, bu tekniklerin hiçbirinin benimsenmediğini, ancak yine de Bing Picture Maker'ın test edilen ülkelerde konuşlandırıldığını iddia ediyor.
Microsoft'a göre araç, makalede belirtilen sorunları ele almak için girişten önce ayarlandı ve sorumlu yapay zeka ekibinin daha fazla çalışmasını sağladı.
Yine de, teknolojiyi çevreleyen yasal sorunlar çözülmedi. Getty Images, Şubat 2023'te AI sanat oluşturucu Stable Diffusion'ın yaratıcısı Stability AI'ye dava açtı. Getty, AI startup'ını sistemini 12 milyondan fazla fotoğrafla yasa dışı bir şekilde eğitmekle suçladı.
İddialar, Microsoft'un kendi yapay zeka etik uzmanları tarafından ifade edilenleri yansıtıyordu. Geçen yıl, "Çok az sanatçı, çalışmalarının eğitim verisi olarak kullanılmasına izin vermiş olabilir ve muhtemelen birçoğu, üretim teknolojisinin, çalışmalarının çevrimiçi resimlerinin varyantlarının saniyeler içinde oluşturulmasına nasıl izin verdiği konusunda hala cahildir."