22 Mayıs 2023 Pazartesi günü, "Bloomberg Feed" adlı doğrulanmış bir Twitter hesabı, Pentagon'da patlama olduğunu iddia eden bir tweet ve bir resim paylaştı. Bunun yapay zeka (AI) ile ne ilgisi olduğunu merak ediyorsanız, görüntü yapay zeka tarafından oluşturulmuştu ve tweet hızla viral hale geldi ve borsada kısa bir düşüşe yol açtı. İşler çok daha kötü olabilirdi; bu, yapay zekanın tehlikelerini açıkça hatırlatıyor.
Yapay Zeka Tehlikeleri
Endişelenmemiz gereken yalnızca sahte haberler değil. Gizlilik ve güvenlikten önyargı ve telif hakkı sorunlarına kadar yapay zekayla ilişkili birçok acil veya potansiyel risk vardır. Bu yapay zeka tehlikelerinden bazılarına değineceğiz, bunları şimdi ve gelecekte azaltmak için neler yapıldığını göreceğiz ve yapay zekanın risklerinin faydalarından daha ağır basıp basmadığını soracağız.
Sahte Haberler
Deepfake'ler ilk ortaya çıktığında, bunların kötü niyetle kullanılabileceğine dair endişeler ortaya çıkmıştı. Aynı şey DALL-E 2, Midjourney veya DreamStudio gibi Yapay zeka görüntü oluşturucuları 'in yeni dalgası için de söylenebilir. 28 Mart 2023'te beyaz Balenciaga şişme ceket giyen sahte Papa Francis'in yapay zeka tarafından oluşturulan görüntüleri ve kaykay yapmak ve poker oynamak da dahil olmak üzere çeşitli maceraların tadını çıkarmak internette yayıldı. Görüntüleri yakından incelemediğiniz sürece bu görüntüleri gerçeğinden ayırmak zordu.
Papa örneği şüphesiz biraz eğlenceli olsa da, Pentagon hakkındaki görsel (ve ona eşlik eden tweet) hiç de farklı değildi. Yapay zeka tarafından oluşturulan sahte görseller, yanlış kişiler tarafından kullanılırsa itibara zarar verme, evlilikleri veya kariyerleri sona erdirme, siyasi huzursuzluk yaratma ve hatta savaş başlatma gücüne sahiptir; kısacası, yapay zeka tarafından oluşturulan bu görseller, kötüye kullanıldığında son derece tehlikeli olma potansiyeline sahiptir.
Artık herkesin ücretsiz olarak kullanabileceği yapay zeka görüntü oluşturucuları ve popüler yazılımı Photoshop bir AI görüntü oluşturucu ekliyor sayesinde, görüntüleri değiştirme ve sahte haberler oluşturma fırsatı her zamankinden daha büyük.
Gizlilik, Güvenlik ve Bilgisayar Korsanlığı
Yapay zekanın riskleri söz konusu olduğunda gizlilik ve güvenlik de büyük endişe kaynağıdır; bazı ülkeler halihazırda OpenAI'nin ChatGPT'sini yasaklamaktadır. İtalya, Avrupa Genel Veri Koruma Yönetmeliği'ne (GDPR) uymadığına inandığı için gizlilik endişeleri nedeniyle modeli yasaklarken, Çin, Kuzey Kore ve Rusya hükümetleri yanlış bilgi yayacağı korkusuyla modeli yasakladı..
Peki konu yapay zeka olduğunda gizlilik konusunda neden bu kadar endişeliyiz? Yapay zeka uygulamaları ve sistemler, öğrenmek ve tahminlerde bulunmak için büyük miktarda veri toplar. Peki bu veriler nasıl saklanıyor ve işleniyor? Veri ihlali, bilgisayar korsanlığı ve bilgilerin yanlış ellere geçmesi konusunda gerçek bir risk var.
Risk altında olan yalnızca kişisel verilerimiz değil. Yapay zeka korsanlığı gerçek bir risk; henüz gerçekleşmedi, ancak kötü niyetli kişiler yapay zeka sistemlerine sızabilirse, bunun ciddi sonuçları olabilir. Örneğin, bilgisayar korsanları sürücüsüz araçları kontrol edebilir, son derece güvenli konumlara erişim sağlamak için yapay zeka güvenlik sistemlerini hackleyebilir ve hatta yapay zeka güvenliğine sahip silah sistemlerini hackleyebilir.
ABD Savunma Bakanlığı Savunma İleri Araştırma Projeleri Ajansı'ndaki (DARPA) uzmanlar bu risklerin farkında ve halihazırda DARPA'nın Aldatmaya Karşı Yapay Zeka Sağlamlığını Garanti Etme (GARD) projesi üzerinde çalışarak sorunu temelden ele alıyorlar. Projenin amacı, bilgisayar korsanlığına ve tahrifata karşı direncin algoritmalara ve yapay zekaya entegre edilmesini sağlamaktır.
Telif Hakkı İhlali
Yapay zekanın tehlikelerinden bir diğeri de telif hakkı ihlalidir. Bu, bahsettiğimiz diğer tehlikeler kadar ciddi görünmeyebilir ancak GPT-4 gibi yapay zeka modellerinin geliştirilmesi, herkesi artan ihlal riskiyle karşı karşıya bırakıyor.
ChatGPT'den sizin için bir şey oluşturmasını istediğinizde (bu ister seyahatle ilgili bir blog yazısı olsun, ister işletmeniz için yeni bir isim olsun), ona bilgileri beslemiş olursunuz ve daha sonra gelecekteki sorguları yanıtlamak için kullanır. Size geri gönderdiği bilgiler başka birinin telif hakkını ihlal ediyor olabilir; bu nedenle bir intihal dedektörü kullanmak ve yapay zeka tarafından oluşturulan herhangi bir içeriği yayınlamadan önce düzenlemek çok önemlidir.
Toplumsal ve Veri Önyargısı
Yapay zeka insan olmadığı için önyargılı olamaz, değil mi? Yanlış. İnsanlar ve veriler yapay zeka modellerini eğitmek için kullanılır ve sohbet robotları, bu da önyargılı verilerin veya kişiliklerin önyargılı bir yapay zekaya yol açacağı anlamına gelir. Yapay zekada iki tür önyargı vardır: toplumsal önyargı ve veri önyargısı.
Gündelik toplumda pek çok önyargı mevcutken, bu önyargılar yapay zekanın bir parçası haline geldiğinde ne olur? Modeli eğitmekten sorumlu programcıların önyargılı beklentileri olabilir ve bu beklentiler daha sonra yapay zeka sistemlerine de yansıyabilir..
Veya yapay zekayı eğitmek ve geliştirmek için kullanılan veriler yanlış, taraflı olabilir veya kötü niyetle toplanmış olabilir. Bu, toplumsal önyargı kadar tehlikeli olabilecek veri önyargısına yol açar. Örneğin, bir yüz tanıma sistemi esas olarak beyaz insanların yüzleri kullanılarak eğitilirse, azınlık gruplarından olanları tanımakta zorluk yaşayabilir ve bu da baskının devam etmesine neden olabilir.
Robotlar İşlerimizi elinden alıyor
ChatGPT ve Google Bard gibi sohbet robotlarının geliştirilmesi, yapay zeka konusunda yepyeni bir endişeye yol açtı: robotlar 'nın işimizi elimizden alma riski. Teknoloji endüstrisindeki yazarların yerini yapay zekanın aldığını, yazılım geliştiricilerin işlerini botlara kaptıracaklarından endişe ettiklerini ve şirketlerin yazarları işe almak yerine blog içeriği ve sosyal medya içeriği oluşturmak için ChatGPT'yi kullandığını görüyoruz.
Dünya Ekonomik Forumu'nun İşlerin Geleceği Raporu 2020 'ye göre yapay zekanın 2025 yılına kadar dünya çapında 85 milyon işin yerini alması bekleniyor. Yapay zeka yazarların yerini almasa bile halihazırda birçok kişi tarafından bir araç olarak kullanılıyor. Yerini yapay zekanın alması riskiyle karşı karşıya olan işlerde çalışanların hayatta kalabilmek için uyum sağlaması gerekebilir. Örneğin yazarlar, yapay zekanın hızlı mühendisleri haline gelebilir ve bu modeller onların yerini almak yerine içerik oluşturma için ChatGPT gibi araçlarla çalışmalarına olanak sağlayabilir.
Gelecekteki Potansiyel Yapay Zeka Riskleri
Bunların tümü acil veya yaklaşmakta olan risklerdir. Peki ya gelecekte görebileceğimiz daha az olası ancak yine de olası yapay zeka tehlikelerinden bazıları? Bunlar arasında yapay zekanın insanlara zarar verecek şekilde programlanması gibi şeyler (örneğin, savaş sırasında öldürmek üzere eğitilmiş otonom silahlar) yer alıyor.
Ayrıca yapay zekanın programlanmış hedefine odaklanıp, insanlar bunu engellemeye çalışsa bile ne pahasına olursa olsun bu hedefe ulaşmaya çalışırken yıkıcı davranışlar geliştirmesi riski de var.
Skynet bize bir yapay zeka duyarlı hale geldiğinde ne olacağını öğretti. Ancak Google mühendisi Blake Lemoine, Haziran 2022'de herkesi Google'ın yapay zekalı sohbet robotu oluşturucusu LaMDA duyarlıydı olduğuna ikna etmeye çalışmış olsa da, çok şükür bugüne kadar bunun doğru olduğunu gösteren hiçbir kanıt yok.
Yapay zeka düzenlemesinin zorlukları
15 Mayıs 202, OpenAI CEO'su Sam Altman, yapay zeka konusundaki ilk kongre oturumuna katıldı Pazartesi günü şu uyarıda bulunuldu: "Bu teknoloji ters giderse, oldukça ters gidebilir." OpenAI CO, düzenlemeyi desteklediğini açıkça belirtti ve kendi fikirlerinin çoğunu duruşmaya sundu. Sorun şu ki yapay zeka o kadar hızlı gelişiyor ki, düzenlemeye nereden başlayacağımızı bilmek zor..
Kongre, sosyal medya çağının başlangıcında yapılan hataların aynısını yapmaktan kaçınmak istiyor ve Senato Çoğunluk Lideri Chuck Schumer'in yanı sıra uzmanlardan oluşan bir ekip, şirketlerin hangi veri kaynaklarını eğitmek için kullandıklarını açıklamalarını gerektirecek düzenlemeler üzerinde zaten çalışıyor. modeller ve onları kimin eğittiği. Yapay zekanın tam olarak nasıl düzenleneceğinin netleşmesi biraz zaman alabilir ve hiç şüphesiz yapay zeka şirketlerinin tepkisi olacaktır.
Yapay Genel Zeka Tehdidi
Ayrıca, bir insanın (veya hayvanın) yerine getirebileceği her türlü görevi yerine getirebilecek bir yapay genel zekanın (AGI) yaratılması riski de mevcut. Bilimkurgu filmlerinde sıklıkla adı geçen bu türden bir yaratıma muhtemelen hâlâ onlarca yıl uzaktayız, ancak bir YGZ oluşturduğumuz takdirde, bu insanlık için bir tehdit oluşturabilir.
Yapay zekanın insanlar için varoluşsal bir tehdit oluşturduğu inancını halihazırda destekleyen Stephen Hawking, Bill Gates ve hatta eski Google CEO'su Eric Schmidt şunları ifade etti: "Yapay zeka varoluşsal riskler oluşturabilir ve hükümetlerin bunu nasıl yapacağını bilmesi gerekir" teknolojinin kötü insanlar tarafından kötüye kullanılmadığından emin olmak için.”
Peki, yapay zeka tehlikeli midir ve riski, yararlarından daha mı ağır basıyor? Jüri hâlâ bu konuda kararsız ancak şu anda etrafımızdaki bazı risklerin kanıtlarını zaten görüyoruz. Diğer tehlikelerin yakın zamanda meyve vermesi pek olası değil. Ancak bir şey açık: Yapay zekanın tehlikeleri hafife alınmamalı. Gelecekteki riskleri en aza indirmek ve hafifletmek için yapay zekanın en başından itibaren uygun şekilde düzenlenmesini sağlamamız büyük önem taşıyor.
.