Yapay zekala modellerinin eğitimi konusunda endişe duyan içerik üreticiler için müjde!
OpenAI, içerik üreticilerin ve sahiplerinin, eserlerinin yapay zeka tarafından nasıl kullanılacağına dair daha fazla kontrol sağlamak amacıyla “Media Manager” adlı yeni bir araç geliştirdiğini duyurdu. Bu araç, içeriklerin yapay zeka araştırmalarında nasıl bir rol alacağını ya da bu süreçten tamamen nasıl çıkarılacağını belirlemelerine olanak tanıyor. Şirket, bu aracın 2025 yılına kadar kullanıma sunulmasını hedefliyor. Son dönemde artan eleştirilere yanıt olarak geliştirilen Media Manager, OpenAI’ın yapay zeka modeli eğitimi için kamuya açık verileri kullanma yaklaşımına bir alternatif sunuyor. Bu adım, içerik sahiplerinin haklarını koruma altına almayı amaçlayarak yapay zeka etiğinde yeni bir dönemin başlangıcı olarak görülüyor.
OpenAI bir blog yazısında, yeni geliştirdikleri Media Manager aracını, içerik üreticilerinin eserlerini nasıl kullanacaklarını belirlemelerine olanak tanıyan, sektörde eşi benzeri olmayan bir teknoloji olarak sunuyor. Bu araç, telif hakkıyla korunan metin, görüntü, ses ve video gibi çoklu medya içeriklerini tanımlayıp, içerik sahiplerinin tercihlerini yansıtacak şekilde tasarlanan bir araç olarak ön plana çıkıyor. OpenAI, bu aracı geliştirmek için en ileri düzeyde makine öğrenimi tekniklerini kullandığını ve gelecekte araca daha fazla özellik eklemeyi planladığını da belirtiyor.
Media Manager aracının, OpenAI’ın yapay zeka geliştirme stratejilerine yönelik artan eleştirilere bir yanıt olarak geliştirildiği düşünülüyor. Bahsedilen stratejiler, çoğunlukla internet ortamından toplanan kamuya açık verilerin kullanılmasına dayanıyor.
Yakın zamanda, Chicago Tribune dahil olmak üzere ABD’nin önde gelen sekiz gazetesi, OpenAI’ı, tazminat ödemeden veya itibarlarını zedelemeden ticari yapay zeka modelleri geliştirmek için içerikleri izinsiz kullanmakla suçlayarak dava açmıştı.
Bu sebeplerden ötürü OpenAI’ın, telifli materyaller olmaksızın işlevsel yapay zeka modelleri geliştirmenin zorluklarını kabul ederek, eleştirileri dikkate alıp yaratıcılarla daha fazla işbirliği yapmaya başladığı düşünülüyor. OpenAI, sanatçılara ve web sitesi sahiplerine, eserlerini ve verilerini yapay zeka modeli eğitimi kullanımından çıkarma yetkisi vererek onlara daha fazla kontrol sunuyor. Bu, üreticilerin içeriklerinin nasıl kullanılacağını doğrudan belirleyebilecekleri bir seçenek olarak karşımıza çıkıyor. Bununla birlikte şirket, büyük içerik üreticileri ile lisans anlaşmaları yapıyor. Bu adımlar, gelecekteki hukuki sorunlara karşı bir önlem olarak da görülüyor.
Ancak bazı içerik oluşturucuları OpenAI’ın bu adımlarını yeterli bulmuyor. Sanatçılar, OpenAI’ın kaldıracağı her görselin ayrı bir kopyasını bir açıklamayla birlikte göndermeyi gerektirdiğini ve bu işlemin iş akışının zahmetli olduğunu söylüyor. OpenAI’ın içeriği lisanslamak için nispeten az ödeme yaptığı bildiriliyor. Salı günkü blog yazısında OpenAI’ın kendisinin de kabul ettiği gibi, şirketin mevcut çözümleri, içerik oluşturucuların çalışmalarının alıntılandığı, remikslendiği veya kontrol edilmediği platformlarda yeniden yayınlandığı senaryoları ele almıyor.
OpenAI’ın yanı sıra, Spawning AI adlı bir startup dahil olmak üzere birçok üçüncü taraf şirket, yapay zeka için evrensel kaynak ve devre dışı bırakma araçları geliştiriyor. Şirket, Spawning AI, Stability AI ve Hugging Face ile işbirliği yaparak, botların IP adreslerini izleyen ve sanatçıların eserlerini izinsiz kullanıma karşı koruyan bir veritabanı oluşturuyor. Bu veritabanı, sanatçıların kendi eserlerini eğitim veritabanlarından çıkarabilmelerine olanak tanıyor.
Steg.AI ve Imatag, insan gözü tarafından algılanamayan filigranlar kullanarak yaratıcıların eserlerini sahiplenmelerine yardımcı olmayı hedefliyor. Öte yandan, Chicago Üniversitesi’nin Nightshade projesi, görüntü verilerine zararlı işaretler ekleyerek bu verilerin yapay zeka modeli eğitiminde kullanılmasını engelliyor ve zorlaştırıyor.