FTC, ChatGPT Maker’ı araştırıyor

BadılCan

Member
Federal Ticaret Komisyonu, ChatGPT’yi yapan yapay zeka girişimi OpenAI hakkında bir soruşturma başlattı. Soru, chatbot’un veri toplayarak ve bireyler hakkında yanlış bilgiler yayınlayarak tüketicilere zarar verip vermediğidir.

San Francisco merkezli şirkete bu hafta gönderilen 20 sayfalık bir mektupta ajans, OpenAI’nin güvenlik uygulamalarını da gözden geçirdiğini söyledi. FTC, OpenAI mektubunda, girişimin yapay zeka modellerini nasıl eğittiği ve kişisel verileri nasıl ele aldığı da dahil olmak üzere düzinelerce soru sordu ve şirketin ajansa belgeler ve ayrıntılar sağlaması gerektiğini söyledi.

FTC, OpenAI’nin “tüketicilere zarar verme riskiyle ilgili haksız veya aldatıcı gizlilik veya veri güvenliği uygulamalarına girip girmediğini” araştırıyor.

Washington Post daha önce soruşturmayı bildirdi ve soruşturmaya aşina bir kişi tarafından doğrulandı. OpenAI yorum yapmaktan kaçındı.


FTC soruşturması, en tanınmış AI şirketlerinden biri olan OpenAI’ye yönelik ilk büyük ABD düzenleyici tehdidini temsil ediyor ve insanlar, işletmeler ve hükümetler giderek daha fazla AI tabanlı ürün kullanmaya başladıkça teknolojinin giderek daha fazla inceleme altına alınabileceğinin sinyallerini veriyor. Hızla gelişen teknoloji, istemlere yanıt olarak yanıt üretebilen, iş yerlerinde insanların yerini alma ve dezenformasyon yayma potansiyeline sahip olan chatbot’lar nedeniyle alarmlara neden oldu.

OpenAI’ye liderlik eden Sam Altman, hızla büyüyen AI endüstrisinin düzenlenmesi gerektiğini söyledi. Mayıs ayında, AI yasası talep etmek için Kongre önünde ifade verdi ve teknoloji için bir politika gündemi belirlemek amacıyla yüzlerce milletvekilini ziyaret etti.

Mayıs ayındaki duruşmada “Bence bu teknoloji ters giderse, oldukça ters gidebilir” dedi. Bunu önlemek için hükümetle birlikte çalışmak istiyoruz” dedi.

OpenAI zaten uluslararası düzenleyici baskı altına girdi. Mart ayında, İtalyan veri koruma düzenleyicisi, OpenAI’nin kullanıcıların kişisel bilgilerini yasa dışı bir şekilde topladığını ve küçüklerin yasa dışı materyallere maruz kalmasını önlemek için bir yaş doğrulama sisteminden yoksun olduğunu söyleyerek ChatGPT’yi yasakladı. OpenAI, İtalyan otoritesinin talep ettiği değişiklikleri yaptığını iddia ederek önümüzdeki ay sisteme erişimi geri getirdi.

FTC, OpenAI’nin ChatGPT’yi başlatmasının ardından bir yıldan kısa bir süre sonra bir soruşturma başlatarak yapay zeka konusunda dikkate değer bir hızla ilerliyor. FTC başkanı Lina Khan, teknoloji şirketlerinin teknolojiler olgunlaştığında değil, ortaya çıkarken düzenlenmesi gerektiğini söyledi.


Geçmişte, ajans genellikle soruşturmaları, bir şirketin 2018’de bir siyasi danışman olan Cambridge Analytica’ya kullanıcı verilerini sattığına dair raporların ardından Meta’nın gizlilik uygulamalarına yönelik bir soruşturma başlatmak gibi büyük bir kamu kabahati yaptıktan sonra başlatmıştı.

Teşkilatın uygulamaları hakkında Perşembe günü bir Meclis Komitesi duruşmasında ifade veren Bayan Khan, daha önce AI endüstrisinin incelemeye ihtiyacı olduğunu söylemişti.

Mayıs ayında New York’ta yayınlanan bir yazısında, “Bu araçlar yeni olmasına rağmen, mevcut kurallara tabi değiller ve FTC, bu yeni pazarda yönetmekle yükümlü olduğumuz yasaları güçlü bir şekilde uygulamaya devam edecek” diye yazdı. Zamanlar. “Teknoloji hızlı bir şekilde ilerlerken, şimdiden birkaç risk görüyoruz.”


Soruşturma, OpenAI’yi ChatGPT oluşturma konusundaki yöntemlerini ve yapay zeka sistemlerini oluşturmak için kullandığı veri kaynaklarını açıklamaya zorlayabilir. OpenAI uzun zamandır bu tür bilgiler konusunda oldukça açık olsa da, son zamanlarda şirket, AI sistemleri için verilerin nereden geldiği ve bunun ne kadarının ChatGPT oluşturmak için kullanıldığı hakkında çok az şey söyledi, çünkü muhtemelen rakiplerinin onu kopyalamasına karşı temkinli. ve belirli kayıtların kullanımıyla ilgili davalar hakkında endişeleri var.

Google ve Microsoft gibi şirketler tarafından da kullanılan sohbet robotları, bilgisayar yazılımının oluşturulma ve kullanılma biçiminde büyük bir değişimi temsil ediyor. Google Arama ve Bing gibi web arama motorlarını, Alexa ve Siri gibi konuşan dijital asistanları ve Gmail ve Outlook gibi e-posta hizmetlerini yeniden keşfetmeye hazırlar.

OpenAI, Kasım ayında ChatGPT’yi piyasaya sürdüğünde, soruları yanıtlama, şiir yazma ve hemen hemen her konuda riffler oluşturma becerisiyle halkın hayal gücünü hemen fethetti. Ancak teknoloji aynı zamanda gerçekle kurguyu karıştırabilir ve hatta uydurma bilgiler de üretebilir; bu, bilim insanlarının “halüsinasyon” olarak adlandırdığı bir olgudur.


ChatGPT, AI araştırmacılarının sinir ağı dediği şey tarafından kontrol edilir. Bu, Google Çeviri gibi hizmetlerde Fransızca ve İngilizce arasında çeviri yapan ve kendi kendine giden arabalar şehrin sokaklarında gezinirken yayaları tanımlayan teknolojinin aynısıdır. Bir sinir ağı, verileri analiz ederek becerileri öğrenir. Örneğin binlerce kedi fotoğrafında desenler bularak bir kediyi tanımayı öğrenebiliyor.

OpenAI gibi laboratuvarlardaki araştırmacılar, Wikipedia makaleleri, kitaplar, haberler ve çevrimiçi sohbet günlükleri dahil olmak üzere büyük miktarda dijital metni analiz eden sinir ağları geliştirdiler. Büyük dil modelleri olarak bilinen bu sistemler, kendileri metin oluşturmayı öğrenmiştir, ancak yanlış bilgileri tekrarlayabilir veya gerçekleri, yanlış bilgilere yol açacak şekilde birleştirebilir.

Mart ayında, teknolojinin etik kullanımını savunan bir savunuculuk grubu olan Yapay Zeka ve Dijital Politika Merkezi, önyargı, dezenformasyon ve güvenlikle ilgili endişeleri öne sürerek FTC’yi OpenAI’nin ChatGPT’nin yeni ticari sürümlerini yayınlamasını engellemeye çağırdı.

Kuruluş, şikayeti bir haftadan daha kısa bir süre önce güncelleyerek, OpenAI’nin de işaret ettiği gibi, sohbet robotunun zarar verebileceği diğer yolları ayrıntılarıyla açıkladı.

Yapay Zeka ve Dijital Politika Merkezi’nin başkanı ve kurucusu Marc Rotenberg, “Şirketin kendisi, ürünü piyasaya sürmenin içerdiği riskleri kabul etti ve kendisi düzenleme çağrısında bulundu” dedi. “Federal Ticaret Komisyonu harekete geçmeli.”

OpenAI, ChatGPT’yi iyileştirmek ve önyargılı, yanlış veya başka şekilde zararlı materyallerin görülme sıklığını azaltmak için çalıştı. Çalışanlar ve diğer test ediciler sistemi kullanırken, şirket onlardan cevaplarının yararlılığını ve doğruluğunu derecelendirmelerini ister. Takviyeli öğrenme adı verilen bir teknik kullanılarak, bu derecelendirmeler daha sonra chatbot’un ne yapıp ne yapmayacağını daha fazla tanımlamak için kullanılır.

Bu gelişen bir hikaye. Güncellemeler için tekrar kontrol edin.
 
Üst