Yapay Zeka (AI) Tehlikeli mi?

22 Mayıs 2023 (May 22)Pazartesi(Monday) günü "Bloomberg Feed" adlı doğrulanmış bir Twitter hesabı, (Twitter)Pentagon'da patlama(explosion at the Pentagon) olduğunu iddia eden bir tweet'i bir görselle paylaştı. Bunun yapay zeka (AI) ile ne ilgisi olduğunu merak ediyorsanız, görüntü AI tarafından oluşturulmuştu ve tweet hızla viral hale geldi ve borsada kısa bir düşüşe yol açtı. İşler çok daha kötü olabilirdi; bu, yapay zekanın tehlikelerini açıkça hatırlatıyor.

Yapay Zeka Tehlikeleri

Endişelenmemiz gereken sadece sahte haberler değil. Gizlilik ve güvenlikten önyargı ve telif hakkı sorunlarına kadar yapay zekayla ilişkili birçok acil veya potansiyel risk vardır. Bu yapay zeka tehlikelerinden bazılarına değineceğiz, bunları şimdi ve gelecekte azaltmak için neler yapıldığını göreceğiz ve yapay zekanın risklerinin faydalarından daha ağır basıp basmadığını soracağız.

Sahte Haberler

Deepfake'lerin ilk ortaya çıktığı zamanlarda, bunların kötü niyetle kullanılabileceğine dair endişeler ortaya çıkmıştı. Aynı şey DALL-E 2(DALL-E 2) , Midjourney veya DreamStudio gibi yeni nesil yapay zeka görüntü oluşturucuları(AI image generators) için de söylenebilir . 28 Mart(March 28) 2023'te , Papa Francis'in(AI-generated images of Pope Francis) beyaz Balenciaga şişme ceketi giydiği ve kaykay yapmak ve poker oynamak da dahil olmak üzere çeşitli maceraların tadını çıkardığı sahte yapay zeka görüntüleri viral oldu. Görüntüleri yakından incelemediğiniz sürece bu görüntüleri gerçeğinden ayırmak zordu.

Papa örneği şüphesiz biraz eğlenceli olsa da, Pentagon hakkındaki görsel (ve ona eşlik eden tweet) hiç de öyle değildi. Yapay zeka tarafından oluşturulan sahte(Fake) görseller, yanlış kişiler tarafından kullanılırsa itibara zarar verme, evlilikleri veya kariyerleri sona erdirme, siyasi huzursuzluk yaratma ve hatta savaş başlatma gücüne sahiptir; kısacası, yapay zeka tarafından oluşturulan bu görseller, kötüye kullanıldığında son derece tehlikeli olma potansiyeline sahiptir.

Yapay zekalı görüntü oluşturucuların artık herkesin ücretsiz olarak kullanabileceği ve Photoshop'un popüler yazılımına yapay zekalı görüntü oluşturucuyu eklemesiyle , görüntüleri değiştirme ve sahte haberler oluşturma fırsatı her zamankinden daha büyük.(Photoshop adding an AI image generator )

Gizlilik, Güvenlik ve Bilgisayar Korsanlığı

Yapay zekanın riskleri söz konusu olduğunda gizlilik ve güvenlik de büyük endişeler oluşturuyor; bazı ülkeler zaten OpenAI'nin ChatGPT'sini(ChatGPT) yasaklıyor . İtalya , Avrupa (Italy)Genel Veri Koruma Yönetmeliği'ne(General Data Protection Regulation) ( GDPR ) uymadığına inandığı için gizlilik endişeleri nedeniyle modeli yasaklarken , Çin(China) , Kuzey Kore(North Korea) ve Rusya hükümetleri yanlış bilgi yayacağı korkusuyla modeli yasakladı.

Peki konu yapay zeka olduğunda gizlilik konusunda neden bu kadar endişeliyiz? Yapay zeka uygulamaları(AI apps) ve sistemleri, öğrenmek ve tahminlerde bulunmak için büyük miktarda veri toplar. Peki bu veriler nasıl saklanıyor ve işleniyor? Veri ihlali, bilgisayar korsanlığı ve bilgilerin yanlış ellere geçmesi konusunda gerçek bir risk var.

Risk altında olan yalnızca kişisel verilerimiz değil. Yapay zeka korsanlığı gerçek bir risk; henüz gerçekleşmedi, ancak kötü niyetli kişiler yapay zeka sistemlerine sızabilirse, bunun ciddi sonuçları olabilir. Örneğin, bilgisayar korsanları sürücüsüz araçları kontrol edebilir, son derece güvenli konumlara erişim sağlamak için yapay zeka güvenlik sistemlerini hackleyebilir ve hatta yapay zeka güvenliğine sahip silah sistemlerini hackleyebilir.

ABD(US Department) Savunma Bakanlığı Savunma İleri Araştırma(Defense Advanced Research) Projeleri Ajansı'ndaki (Projects) ((Agency) DARPA )(DARPA) uzmanlar bu risklerin farkında ve halihazırda DARPA'nın (DARPA)Aldatmaya Karşı Yapay Zeka Sağlamlığını Garanti Etme(Guaranteeing AI Robustness Against Deception) ( GARD ) projesi üzerinde çalışarak sorunu temelden ele alıyorlar. Projenin amacı, bilgisayar korsanlığına ve kurcalamaya karşı direncin algoritmalara ve yapay zekaya yerleştirilmesini sağlamaktır.

Telif hakkı ihlali

Yapay zekanın tehlikelerinden bir diğeri de telif hakkı ihlalidir. Bu, bahsettiğimiz diğer tehlikeler kadar ciddi görünmeyebilir ancak GPT-4(GPT-4) gibi yapay zeka modellerinin geliştirilmesi, herkesi artan ihlal riskiyle karşı karşıya bırakıyor.

ChatGPT'den(ChatGPT) sizin için bir şey yaratmasını istediğinizde (bu ister seyahatle ilgili bir blog yazısı olsun, ister işletmeniz için yeni bir isim olsun), ona bilgileri beslemiş olursunuz ve daha sonra gelecekteki sorguları yanıtlamak için kullanır. Size geri gönderdiği bilgiler başka birinin telif hakkını ihlal ediyor olabilir; bu nedenle bir intihal dedektörü kullanmak ve yapay zeka tarafından oluşturulan herhangi bir içeriği yayınlamadan önce düzenlemek çok önemlidir.

Toplumsal ve Veri Önyargısı

Yapay zeka insan değil, dolayısıyla önyargılı olamaz, değil mi? Yanlış. İnsanlar ve veriler, yapay zeka modellerini ve sohbet robotlarını(chatbots) eğitmek için kullanılır ; bu da önyargılı verilerin veya kişiliklerin, önyargılı bir yapay zekaya yol açacağı anlamına gelir. Yapay zekada iki tür önyargı vardır: toplumsal önyargı ve veri önyargısı.

Gündelik toplumda pek çok önyargı mevcutken, bu önyargılar yapay zekanın bir parçası haline geldiğinde ne olur? Modeli eğitmekten sorumlu programcıların önyargılı beklentileri olabilir ve bu beklentiler daha sonra yapay zeka sistemlerine de yansıyabilir.

Veya bir yapay zekayı eğitmek ve geliştirmek için kullanılan veriler yanlış, taraflı olabilir veya kötü niyetle toplanmış olabilir. Bu, toplumsal önyargı kadar tehlikeli olabilecek veri önyargısına yol açar. Örneğin, bir yüz tanıma sistemi esas olarak beyaz insanların yüzleri kullanılarak eğitilirse, azınlık gruplarından olanları tanımakta zorlanabilir ve bu da baskıyı sürdürür.

Robotlar işimizi elimizden alıyor

ChatGPT ve Google Bard gibi sohbet robotlarının geliştirilmesi, yapay zekayı çevreleyen yepyeni bir endişeyi ortaya çıkardı: Robotların(robots ) işlerimizi elinden alma riski. Teknoloji endüstrisindeki yazarların yerini yapay zekanın aldığını, yazılım geliştiricilerin işlerini botlara kaptıracaklarından endişe ettiklerini ve şirketlerin yazarları işe almak yerine blog içeriği ve sosyal medya içeriği oluşturmak için ChatGPT'yi kullandığını görüyoruz.(ChatGPT)

Dünya Ekonomik Forumu'nun İşlerin Geleceği Raporu 2020'ye(World Economic Forum’s The Future of Jobs Report 2020) göre yapay zekanın 2025 yılına kadar dünya çapında 85 milyon işin yerini alması bekleniyor. Yapay zeka yazarların yerini almasa bile halihazırda birçok kişi tarafından bir araç olarak kullanılıyor. Yerini yapay zekanın alması riskiyle karşı karşıya olan işlerde çalışanların hayatta kalmak için uyum sağlamaları gerekebilir; örneğin yazarlar, yapay zeka istemli mühendisler haline gelebilir ve bu modeller onların yerini almak yerine içerik oluşturma için ChatGPT gibi araçlarla çalışmalarına olanak sağlayabilir.

Gelecekteki Potansiyel Yapay Zeka Riskleri

Bunların hepsi acil veya yaklaşmakta olan risklerdir, peki ya gelecekte görebileceğimiz daha az olası ama yine de olası yapay zeka tehlikelerinden bazıları? Bunlar arasında yapay zekanın insanlara zarar verecek şekilde programlanması gibi şeyler de var; örneğin savaş sırasında öldürmek üzere eğitilmiş otonom silahlar.

Ayrıca yapay zekanın programlanmış hedefine odaklanıp, insanlar bunu engellemeye çalışsa bile ne pahasına olursa olsun bu hedefe ulaşmaya çalışırken yıkıcı davranışlar geliştirmesi riski de var.

Skynet bize bir yapay zeka duyarlı hale geldiğinde ne olacağını öğretti. Bununla birlikte, Google mühendisi Blake Lemoine herkesi (Blake Lemoine)Google'ın yapay zekalı sohbet robotu oluşturucusu LaMDA'nın (LaMDA, Google’s artificially intelligent chatbot generator was sentient)Haziran 2022'de(June 2022) duyarlı olduğuna ikna etmeye çalışmış olsa da , şükürler olsun ki bugüne kadar bunun doğru olduğunu gösteren hiçbir kanıt yok.

Yapay Zeka Düzenlemesinin Zorlukları

15 Mayıs 202 Pazartesi günü OpenAI CEO'su Sam Altman, yapay zeka hakkındaki ilk kongre duruşmasına katıldı(OpenAI CEO Sam Altman attended the first congressional hearing on artificial intelligence) ve şu uyarıda bulundu: "Bu teknoloji ters giderse, oldukça ters gidebilir." OpenAI CO,(OpenAI CO) düzenlemeyi desteklediğini açıkça belirtti ve kendi fikirlerinin çoğunu duruşmaya sundu. Sorun şu ki yapay zeka o kadar hızlı gelişiyor ki, düzenlemeye nereden başlayacağımızı bilmek zor.

Kongre,(Congress) sosyal medya çağının başlangıcında yapılan aynı hataları yapmaktan kaçınmak istiyor ve Senato Çoğunluk Lideri Chuck Schumer'in(Senate Majority Leader Chuck Schumer) yanı sıra uzmanlardan oluşan bir ekip , şirketlerin modelleri eğitmek için hangi veri kaynaklarını kullandıklarını ve kimlerin kim olduğunu açıklamalarını gerektiren düzenlemeler üzerinde zaten çalışıyor. onları eğitti. Yapay zekanın tam olarak nasıl düzenleneceğinin netleşmesi biraz zaman alabilir ve hiç şüphe yok ki yapay zeka şirketlerinin tepkisi olacaktır.

Yapay Genel Zeka (Artificial General Intelligence)Tehdidi(Threat)

Ayrıca , bir insanın (veya hayvanın) yerine getirebileceği her türlü görevi yerine getirebilecek yapay bir genel zekanın ( AGI ) yaratılması riski de vardır . Bilimkurgu filmlerinde sıklıkla adı geçen bu türden bir yaratıma muhtemelen hâlâ onlarca yıl uzaktayız, ancak bir (Often)YGZ(AGI) oluşturduğumuzda , bu insanlık için bir tehdit oluşturabilir.

Stephen Hawking , Bill Gates ve hatta eski Google CEO'su Eric Schmidt(Google CEO Eric Schmidt) de dahil olmak üzere pek çok tanınmış kişi , yapay zekanın insanlar için varoluşsal bir tehdit oluşturduğu inancını zaten destekliyor. teknoloji kötü insanlar tarafından kötüye kullanılmaz.”

Peki yapay zeka tehlikeli midir ve riski yararlarından daha mı ağır basıyor? Jüri hâlâ bu konuda kararsız ancak şu anda çevremizdeki bazı risklerin kanıtlarını zaten görüyoruz. Diğer tehlikelerin yakın zamanda meyve vermesi ihtimali ise daha düşük. Ancak bir şey açık: Yapay zekanın tehlikeleri hafife alınmamalı. Gelecekteki riskleri en aza indirmek ve hafifletmek için yapay zekanın en başından itibaren uygun şekilde düzenlenmesini sağlamamız büyük önem taşıyor.



About the author

Ben bir bilgisayar uzmanıyım ve iOS cihazlarında uzmanım. 2009'dan beri insanlara yardım ediyorum ve Apple ürünleriyle olan deneyimim, onların teknoloji ihtiyaçlarına yardımcı olmak için beni mükemmel bir insan yapıyor. Becerilerim şunları içerir: - iPhone'ları ve iPod'ları onarma ve yükseltme - Apple yazılımını yükleme ve kullanma - İnsanların iPhone'ları ve iPod'ları için en iyi uygulamaları bulmalarına yardımcı olma - Çevrimiçi projeler üzerinde çalışma



Related posts