Bir yapay zeka araştırmacısı seçim sahtekarlıklarını ele alıyor

BadılCan

Member
Oren Etzioni neredeyse 30 yıldır yapay zeka alanında en iyimser araştırmacılardan biriydi.

Ancak 2019'da Dr. Washington Üniversitesi'nde profesör ve Allen Yapay Zeka Enstitüsü'nün kurucu yöneticisi olan Etzioni, yeni bir yapay zeka türünün internette dezenformasyonun yayılmasını hızlandıracağını öne süren ilk araştırmacılardan biriydi. Geçen yılın ortasında yapay zeka tarafından üretilen deepfake'lerin önemli bir seçimi etkileyeceğinden endişe duyduğunu söyledi. Tehdide karşı koyma umuduyla Ocak ayında kar amacı gütmeyen bir kuruluş olan TrueMedia.org'u kurdu.

Salı günü kuruluş, dijital dezenformasyonu tespit etmek için ücretsiz araçlar yayınladı ve bunları gazetecilerin, teyitçilerin ve çevrimiçi ortamda neyin gerçek olduğunu öğrenmek isteyen herkesin kullanımına sunma planlarını yayınladı.

TrueMedia.org web sitesinde kar amacı gütmeyen kuruluş tarafından onaylanan herkesin kullanımına sunulan araçlar, sahte ve değiştirilmiş görüntüleri, ses ve video dosyalarını tespit etmek için tasarlanmıştır. Medya dosyalarına olan bağlantıları kontrol ederler ve bunlara güvenilip güvenilmeyeceğine hızla karar verirler.


Dr. Etzioni, bu araçları şu anda yanıltıcı veya hileli yapay zeka içeriğini tespit etmek için kullanılan yama savunmalarına göre bir gelişme olarak görüyor. Ancak dünya çapında milyarlarca insanın seçimlerde oy kullanacağı bir yılda, bu durum bizi nelerin beklediğine dair kasvetli bir tablo çizmeye devam ediyor.

“Çok korkuyorum” dedi. “Bir yanlış bilgi tsunamisi görme ihtimalimiz çok yüksek.”

Yalnızca yılın ilk birkaç ayında yapay zeka teknolojileri, Başkan Biden'ın sahte sesli aramalarının, Taylor Swift'in sahte görüntülerinin ve sesli reklamlarının ve Moskova'daki bir terör saldırısını destekleyen Ukraynalı bir yetkilinin suçlandığını gösteren tamamen sahte bir röportajın oluşturulmasına yardımcı oldu. Bu tür dezenformasyonların tespit edilmesi zaten zordur ve teknoloji endüstrisi, giderek daha ikna edici deepfake'ler üreten, tespit etmeyi daha da zorlaştıran, giderek daha güçlü yapay zeka sistemlerini piyasaya sürüyor.

Birçok yapay zeka araştırmacısı tehdidin ivme kazandığı konusunda uyarıyor. Geçen ay binden fazla kişi imza attı; aralarında Dr. Etzioni ve diğer önde gelen yapay zeka araştırmacıları, yapay zeka ses ve video hizmetlerinin geliştiricilerini ve dağıtımcılarını, teknolojilerinin zararlı derin sahtekarlıklar oluşturmak için kolayca kullanılabilmesi durumunda sorumlu tutacak yasalar talep eden açık bir mektup.

Perşembe günü Columbia Üniversitesi'nde düzenlenen bir etkinlikte eski dışişleri bakanı Hillary Clinton, Google'ın eski CEO'su Eric Schmidt ile röportaj yaptı ve Schmidt videoların, hatta sahte videoların “oy verme davranışını, insan davranışını, ruh hallerini, ruh hallerini vb. etkileyebileceği” uyarısında bulundu. .” her şey .”


Bay Schmidt, “Hazır olduğumuzu sanmıyorum” dedi. “Bu sorun önümüzdeki birkaç yıl içinde daha da kötüleşecek. Belki Kasım ayına kadar olabilir, belki de değil, ama kesinlikle bir sonraki döngüde.”

Teknoloji endüstrisi tehdidin farkında. Şirketler üretken yapay zeka sistemlerini geliştirmek için yarışırken aynı zamanda bu teknolojilerin neden olabileceği hasarı sınırlamaya da çalışıyorlar. Anthropic, Google, Meta ve OpenAI, yapay zeka hizmetlerinin seçimle ilgili kullanımını kısıtlama veya etiketleme planlarını duyurdular. Şubat ayında aralarında Amazon, Microsoft, TikTok ve X'in de bulunduğu 20 teknoloji şirketi, yanıltıcı yapay zeka içeriğinin oylamayı aksatmasını önlemek için gönüllü bir taahhüt imzaladı.

Bu bir meydan okuma olabilir. Şirketler genellikle teknolojilerini “açık kaynaklı” yazılım olarak yayınlar; bu da herkesin bunları kısıtlama olmaksızın kullanabileceği ve değiştirebileceği anlamına gelir. Uzmanlar, dünyanın en büyük şirketlerinin birçoğunun büyük yatırımlarının sonucu olan deepfake oluşturmak için kullanılan teknolojinin, dezenformasyonu tespit etmek için kullanılan teknolojiden her zaman daha hızlı olacağını öngörüyor.

Geçen hafta Doç. Etzioni, Haberler'a verdiği röportajda deepfake yaratmanın ne kadar kolay olduğunu anlatıyor. Bu teknolojilerin tehlikelerini göstermek için internette mevcut olan yapay zeka araçlarını kullanan kardeş kuruluş CivAI'nin bir hizmetini kullandı ve daha önce hiç bulunmadığı bir yer olan hapishanedeyken kendisinin fotoğraflarını hemen çekti.


“Sahte olduğunuzu gördüğünüzde bu özellikle korkutucu” dedi.

Daha sonra hastane yatağında kendisinin deepfake'ini yarattı; bu görselin, seçimden kısa bir süre önce Bay Biden'a veya eski Başkan Donald J. Trump'a uygulanması halinde seçimi etkileyebileceğine inanıyor.

Dr. Etzioni, hastane yatağında kendisinin derin sahte bir imajını yarattı.Kredi…Oren Etzioni hakkında

TrueMedia'nın araçları bu tür sahtekarlıkları tespit edecek şekilde tasarlanmıştır. Bir düzineden fazla startup benzer teknoloji sunuyor.

Ama Dr. Etzioni, grubunun aracının etkinliği hakkında yorum yaparken hiçbir dedektörün mükemmel olmadığını çünkü olasılıklara dayandığını söyledi. Deepfake tespit hizmetleri, öpüşen robotların ve dev Neandertallerin görüntülerini gerçek fotoğraflar olarak ilan edecek şekilde kandırıldı ve bu tür araçların toplumun gerçeklere ve kanıtlara olan güvenini daha da zedeleyebileceği endişelerini artırdı.

Dr. Etzioni, TrueMedia'nın araçlarına, Bay Trump'ın bir grup genç siyah adamla birlikte merdivende oturduğunu gösteren ünlü bir deepfake'i besledi. Onlar bunu “son derece şüpheli” olarak tanımladılar; bu onların en yüksek güven seviyesiydi. Bay Trump'ın parmaklarında kan olan başka bir tanınmış deepfake fotoğrafını yüklediğinde, bunun gerçek mi yoksa sahte mi olduğundan “emin değillerdi”.

Eski Başkan Donald J. Trump'ın bir grup genç siyah adamla birlikte merdivende oturduğunu gösteren yapay zeka derin sahtesi, TrueMedia'nın aracı tarafından “son derece şüpheli” olarak değerlendirildi.
Ancak Bay Trump'ın parmaklarında kan bulunan deepfake'i “güvensiz” olarak tanımlandı.

“En iyi aletlerle bile emin olamazsınız” dedi.

Federal İletişim Komisyonu yakın zamanda yapay zeka tarafından oluşturulan otomatik çağrıları yasakladı. OpenAI ve Meta da dahil olmak üzere bazı şirketler artık yapay zeka tarafından oluşturulan görsellere filigran ekliyor. Ve araştırmacılar gerçeği sahteden ayırmanın başka yollarını araştırıyorlar.

Maryland Üniversitesi, değiştirilmemiş canlı kayıtların kimliğini doğrulamak için QR kodlarına dayalı bir şifreleme sistemi geliştiriyor. Geçen ay yayınlanan bir çalışmada düzinelerce yetişkinden konuşurken nefes almaları, yutkunmaları ve düşünmeleri istendi, böylece duraklama düzenleri klonlanmış sesin ritimleriyle karşılaştırılabilecekti.

Ancak diğer birçok uzman gibi Dr. Görüntü filigranlarının kaldırılmasının kolay olduğunu unutmayın. Kariyerini deepfake'lerle mücadeleye adamış olsa da, algılama araçlarının yeni üretken yapay zeka teknolojilerinden daha iyi performans göstermede zorlanacağını kabul ediyor.

OpenAI, TrueMedia.org'u kurduğundan bu yana işini daha da zorlaştıracak iki yeni teknolojiyi tanıttı. Bir kişinin sesini 15 saniyelik bir kayıttan yeniden oluşturabilirsiniz. Bir diğeri ise Hollywood filmlerinden fırlamış gibi görünen tam hareketli videolar üretebiliyor. OpenAI, potansiyel tehlikeleri anlamaya çalıştığı için bu araçları henüz halka açıklamıyor.


(The Times, metin üreten yapay zeka sistemleriyle ilgili telif hakkı ihlali nedeniyle OpenAI ve ortağı Microsoft'a dava açtı.)

Sonuçta Dr. Etzioni, sorunun üstesinden gelmek için hükümet düzenleyicileri, yapay zeka teknolojileri geliştiren şirketler ve dezenformasyonun yayıldığı web tarayıcılarını ve sosyal ağları kontrol eden teknoloji devleri arasında kapsamlı bir işbirliği gerektirecek. Ancak sonbahar seçimlerinden önce bunun gerçekleşme ihtimalinin zayıf olduğunu söyledi.

“İnsanlara gelecekte ne olacağına dair mümkün olan en iyi teknik değerlendirmeyi vermeye çalışıyoruz” dedi. “Hala gerçek olup olmadığına karar vermelisin.”
 
Üst