Büyük seçim yılında yapay zeka mimarları bunların kötüye kullanımına karşı harekete geçiyor

BadılCan

Member
Yapay zeka şirketleri, dönüştürücü teknolojinin geliştirilmesinde ön sıralarda yer alıyor. Artık dünya çapında önemli seçimlerle dolu bir yılda yapay zeka kullanımına da sınır koyma mücadelesi veriyorlar.

Geçtiğimiz ay, ChatGPT sohbet robotunun yapımcısı OpenAI, araçlarının seçimlerde kötüye kullanılmasını önlemek için çalıştığını, bunların gerçek kişiler veya kurumlarmış gibi davranan sohbet robotları oluşturmak için kullanılmasının yasaklanması da dahil olmak üzere çalıştığını söyledi. Son haftalarda Google, yapay zeka sohbet robotu Bard'ın seçimle ilgili belirli istemlere “çok ihtiyatlı davranarak” yanıt vermesini engelleyeceğini de duyurdu. Facebook ve Instagram'ın sahibi olan Meta da, seçmenlerin hangi materyalin gerçek, neyin sahte olduğunu belirlemesini kolaylaştırmak için yapay zeka tarafından oluşturulan içeriği platformlarında daha iyi etiketleme sözü verdi.

Cuma günü aralarında Adobe, Amazon, Anthropic, Google, Meta, Microsoft, OpenAI, TikTok'un da bulunduğu 20 teknoloji şirketi yapay zeka tespit araçları ve diğer önlemler konusunda işbirliği yaptı ancak seçimle ilgili yapay zeka içeriğinin yasaklanması yönünde çağrıda bulunmadı.

Anthrophic ayrıca Cuma günü ayrıca teknolojisinin siyasi kampanya veya lobicilik amacıyla kullanılmasını yasaklayacağını da söyledi. Claude adlı bir chatbot üreten şirket, bir blog yazısında, kurallarını ihlal eden kullanıcıları uyaracağını veya yasaklayacağını söyledi. Yanlış bilgileri otomatik olarak tespit edip engellemek ve operasyonları etkilemek için tasarlanmış araçları kullandığını da sözlerine ekledi.


Şirket, “Yapay zeka dağıtımının geçmişi de sürprizler ve beklenmedik etkilerle dolu” dedi. “2024'te yapay zeka sistemlerinin şaşırtıcı olası kullanımlarının olacağını varsayıyoruz; kendi geliştiricilerimizin beklemediği olası kullanımlar.”

Bu çaba, yapay zeka şirketlerinin, milyarlarca insan sandık başına giderken popüler hale getirdikleri bir teknolojiyi ele alma yönündeki çabalarının bir parçası. Danışmanlık firması Anchor Change'e göre, bu yıl dünya çapında en az 83 seçim bekleniyor; bu, en az 24 yılın en büyük yoğunlaşması. Son haftalarda Tayvan, Pakistan ve Endonezya'da insanlar oy kullandı ve dünyanın en büyük demokrasisi olan Hindistan'da parlamento seçimlerinin baharda yapılması planlanıyor.

Yapay zeka araçları üzerindeki kısıtlamaların ne kadar etkili olacağı, özellikle teknoloji şirketlerinin giderek daha karmaşık teknolojiler geliştirmesi nedeniyle belirsiz. Perşembe günü OpenAI, anında gerçekçi videolar oluşturabilen bir teknoloji olan Sora'yı tanıttı. Bu tür araçlar, siyasi kampanyalarda metin, ses ve görseller üretmek, gerçek ile kurguyu bulanıklaştırmak ve seçmenlerin hangi içeriğin gerçek olduğunu anlayıp anlayamayacağına dair soruları gündeme getirmek için kullanılabilir.

Yapay zeka tarafından oluşturulan içerik, ABD'deki siyasi kampanyalarda zaten yer aldı ve düzenleyici ve yasal muhalefete maruz kaldı. Bazı eyalet yasama organları yapay zeka tarafından oluşturulan siyasi içeriği düzenlemek için yasa tasarıları hazırlıyor.

Geçtiğimiz ay, New Hampshire sakinleri, büyük olasılıkla yapay olarak Başkan Biden'a benzeyecek şekilde yaratılmış bir sesle eyalet ön seçimlerinde oy vermekten caydıran otomatik çağrı mesajları aldılar. Federal İletişim Komisyonu geçen hafta bu tür aramaları yasakladı.


FCC Başkanı Jessica Rosenworcel o dönemde şöyle demişti: “Kötü aktörler, savunmasız aile üyelerine şantaj yapmak, ünlüleri taklit etmek ve seçmenleri yanlış bilgilendirmek için istenmeyen otomatik aramalarda yapay zekanın ürettiği sesleri kullanıyor.”

AI araçları ayrıca Arjantin, Avustralya, Birleşik Krallık ve Kanada'da politikacıların ve siyasi konuların yanıltıcı veya aldatıcı tasvirlerine yol açtı. Geçtiğimiz hafta, partisi Pakistan seçimlerinde en fazla sandalye kazanan eski Başbakan İmran Han, hapishanede zaferini ilan etmek için yapay zekanın sesini kullandı.

Uzmanlar, şimdiye kadarki en önemli seçim döngülerinden birinde yapay zekanın yaratabileceği yanlış bilgi ve aldatmanın demokrasi için yıkıcı sonuçlar doğurabileceğini söylüyor.

Yapay zeka konusunda uzmanlaşmış Washington Üniversitesi profesörü ve kullanılan siyasi kampanyalarda çevrimiçi dezenformasyonu tespit etmeye çalışan kar amacı gütmeyen bir kuruluş olan True Media'nın kurucusu Oren Etzioni, “Burada sekiz topun arkasındayız” dedi. “Buna gerçek zamanlı yanıt verecek araçlara ihtiyacımız var.”

Anthropic, Cuma günkü duyurusunda, Claude chatbot'unun siyasi adaylar, politika sorunları ve seçim yönetimi ile ilgili önyargılı veya yanıltıcı içeriği nasıl üretebileceğini belirlemek için test yapmayı planladığını söyledi. Genellikle bir teknolojinin savunmasını aşmak ve güvenlik açıklarını daha iyi belirlemek için kullanılan bu “kırmızı takım” testleri, aynı zamanda yapay zekanın seçmen bastırma taktikleri soruları gibi kötü niyetli isteklere nasıl yanıt verdiğini de inceliyor.


Önümüzdeki haftalarda Anthropic, ABD'li kullanıcıları seçimlerle ilgili sorularını partizan olmayan, kar amacı gütmeyen bir grup olan Democracy Works'ten TurboVote gibi saygın bilgi kaynaklarına yönlendirmeyi amaçlayan bir denemeyi de kullanıma sunacak. Şirket, yapay zeka modelinin belirli seçimlerle ilgili gerçek zamanlı gerçekleri güvenilir bir şekilde sağlayacak kadar sık eğitilmediğini söyledi.

Benzer şekilde, OpenAI geçen ay insanları oy verme bilgileri konusunda uyarmayı ve AI tarafından oluşturulan görüntüleri ChatGPT aracılığıyla etiketlemeyi planladığını söyledi.

OpenAI bir blog yazısında “Her yeni teknoloji gibi bu araçların da faydaları ve zorlukları var” dedi. “Bunlar aynı zamanda emsalsizdir ve araçlarımızı nasıl kullanacağımız hakkında daha fazla şey öğrendikçe yaklaşımımızı geliştirmeye devam edeceğiz.”

(Haberler, Aralık ayında OpenAI ve ortağı Microsoft'a, AI sistemleriyle ilgili haber içeriğinin telif hakkı ihlali nedeniyle dava açtı.)

Dezenformasyon kampanyalarıyla bağlantılı bir AI video oluşturma girişimi olan Synthesia, aynı zamanda yanlış, kutuplaştırıcı, bölücü veya yanıltıcı içerik de dahil olmak üzere “haber benzeri içerik” için teknolojinin kullanımını da yasaklıyor. Synthesia kurumsal ilişkiler ve politika başkanı Alexandru Voica, şirketin teknolojisinin kötüye kullanımını tespit etmek için kullandığı sistemleri iyileştirdiğini söyledi.


Görüntü oluşturma aracına sahip bir startup olan Stability AI, teknolojisinin yasa dışı veya etik olmayan amaçlarla kullanımını yasakladığını, güvenli olmayan görüntülerin oluşturulmasını engellemeye çalıştığını ve tüm görüntülere algılanamaz bir filigran eklediğini söyledi.

En büyük teknoloji şirketleri de Cuma günü Münih'te yapılan ortak taahhüt hakkında yorum yaptı.

Geçtiğimiz hafta Meta, içeriğin yapay zeka kullanılarak ne zaman oluşturulduğunu tespit etmek için teknolojik standartlar konusunda diğer şirketlerle işbirliği yaptığını da duyurdu. Avrupa Birliği'nin Haziran ayındaki genel seçimleri öncesinde TikTok, Çarşamba günü yayınladığı bir blog yazısında, yanıltıcı olabilecek manipüle edilmiş içeriğin yasaklanacağını ve kullanıcıların gerçekçi yapay zeka yaratımlarını etiketlemesini zorunlu kılacağını söyledi.

Google Aralık ayında, YouTube içerik oluşturucularının ve tüm seçim reklamverenlerinin dijital olarak değiştirilmiş veya oluşturulmuş içeriği ifşa etmelerini de zorunlu kılacağını duyurdu. Şirket, Bard gibi yapay zeka araçlarının seçimle ilgili belirli sorulara yanıt vermesini engelleyerek 2024 seçimlerine hazırlandığını söyledi.

Google, “Her yeni teknoloji gibi yapay zeka da hem yeni fırsatlar hem de zorluklar sunuyor” dedi. Şirket, yapay zekanın kötüye kullanımla mücadeleye yardımcı olabileceğini ekledi: “ancak aynı zamanda yanlış bilgi ortamını nasıl dönüştürebileceğine de hazırlanıyoruz.”
 
Üst