Yapay Zekada Kadınlar: Sarah Kreps, Cornell’de hükümet profesörü

Yapay Zekada Kadınlar: Sarah Kreps, Cornell’de hükümet profesörü

TechCrunch, AI odaklı kadın akademisyenlere ve diğerlerine hak ettikleri ve gecikmiş zamanlarını mercek altına almak için bir kampanya başlatıyor bir dizi röportaj Yapay zeka devrimine katkıda bulunan olağanüstü kadınlara odaklanılıyor. Yıl boyunca yapay zeka patlaması devam ettikçe, çoğu zaman fark edilmeyen önemli çalışmaları vurgulayan birkaç makale yayınlayacağız. Daha fazla profil okuyun Burada.

Sarah Kreps, ABD dış ve savunma politikasına odaklanan bir siyaset bilimci, ABD Hava Kuvvetleri gazisi ve analistidir. Cornell Üniversitesi’nde hükümet profesörü, Cornell Hukuk Fakültesi’nde yardımcı hukuk profesörü ve West Point Modern Savaş Enstitüsü’nde yardımcı akademisyendir.

Kreps’in son araştırması, OpenAI gibi yapay zeka teknolojilerinin hem potansiyelini hem de risklerini araştırıyor GPT-4özellikle politik alanda. bir görüşe göre kolon Geçen yıl The Guardian için, yapay zekaya daha fazla para akıtıldıkça, yapay zeka silahlanma yarışının sadece şirketler arasında değil, ülkeler arasında da yoğunlaşacağını, yapay zeka politikalarına yönelik zorlukların ise daha da zorlaşacağını yazmıştı.

Soru-Cevap

Kısaca yapay zekaya nasıl başladınız? Sizi sahaya çeken ne oldu?

Ulusal güvenliğe etkileri olan gelişen teknolojiler alanında başladım. Predator drone’un konuşlandırıldığı sırada Hava Kuvvetleri subayıydım ve gelişmiş radar ve uydu sistemlerinde görev almıştım. Dört yılımı bu alanda çalışarak geçirdim, dolayısıyla bir doktora öğrencisi olarak gelişen teknolojilerin ulusal güvenlik üzerindeki etkilerini incelemekle ilgilenmem doğaldı. İlk olarak dronlar hakkında yazdım ve dronlarla ilgili tartışma, elbette yapay zekayı da içeren özerklik sorularına doğru ilerliyordu.

2018 yılında DC’deki bir düşünce kuruluşunun yapay zeka çalıştayındaydım ve OpenAI bu yeni konu hakkında bir sunum yaptı. GPT-2 yeteneği geliştirmişlerdi. 2016 seçimlerini ve anadili İngilizce olmayanların dilbilgisi hataları gibi küçük şeyler nedeniyle fark edilmesi nispeten kolay olan yabancı seçim müdahalesini yeni geçmiştik; müdahalenin İngilizce konuşanlardan geldiği göz önüne alındığında bu tür hatalar şaşırtıcı değildi. Rusya destekli İnternet Araştırma Ajansı. OpenAI bu sunumu yaparken, hemen geniş ölçekte inandırıcı dezenformasyon üretme ve ardından mikro hedefleme yoluyla Amerikalı seçmenlerin psikolojisini, bu kişilerin elle içerik yazmaya çalıştıkları zaman mümkün olandan çok daha etkili yollarla manipüle etme olasılığıyla meşgul oldum. ölçeğin her zaman sorun olacağı yer.

OpenAI’ye ulaştım ve onların aşamalı sürüm stratejisinde ilk akademik işbirlikçilerden biri oldum. Özel araştırmam, GPT-2 ve sonraki sürümlerin olası kötüye kullanım durumlarını araştırmayı amaçlıyordu. GPT-3 siyasi içerik üreticileri olarak güvenilirdi. Bir dizi deneyde, halkın bu içeriği güvenilir görüp görmeyeceğini değerlendirdim, ancak aynı zamanda yasa koyucuların bu içeriğe aynı oranlarda yanıt verip vermeyeceğini görmek için gerçek seçim bölgesi mektuplarıyla rastgele seçtiğim “seçim bölgesi mektupları” oluşturduğum geniş bir saha deneyi de gerçekleştirdim. Kandırılıp kandırılamayacaklarını, kötü niyetli aktörlerin büyük ölçekli bir mektup yazma kampanyasıyla yasama gündemini şekillendirip şekillendiremeyeceklerini biliyorlar.

Bu sorular egemen bir demokrasinin ne anlama geldiğinin tam kalbinden vuruldu ve ben tartışmasız bir şekilde bu yeni teknolojilerin demokrasimize yönelik yeni tehditleri temsil ettiği sonucuna vardım.

En çok hangi işten gurur duyuyorsunuz (AI alanında)?

Yaptığım saha deneyinden büyük gurur duyuyorum. Hiç kimse uzaktan benzer bir şey yapmamıştı ve yasama gündemi bağlamında yıkıcı potansiyeli gösteren ilk kişi bizdik.

Ancak ne yazık ki piyasaya hiç sunmadığım araçlarla da gurur duyuyorum. Mevzuatla ilgili gelen e-postaları işleyecek ve seçmenlere anlamlı şekillerde yanıt vermelerine yardımcı olacak bir uygulama geliştirmek için Cornell’deki birkaç bilgisayar bilimi öğrencisiyle çalıştım. Daha önce bunun üzerinde çalışıyorduk SohbetGPT ve büyük hacimli e-postaları sindirmek ve kendi bölgelerinde veya eyaletlerindeki insanlarla iletişim kuran, zamanı kısıtlı personele yapay zeka desteği sağlamak için yapay zekayı kullanmak. Bu araçların, seçmenlerin siyasete olan ilgisizliği ve aynı zamanda yasa koyucuların zamanına yönelik artan talepler nedeniyle önemli olduğunu düşündüm. Yapay zekayı kamunun ilgisini çeken bu yöntemlerle geliştirmek, siyaset bilimciler ve bilgisayar bilimcileri için değerli bir katkı ve ilginç bir disiplinler arası çalışma gibi görünüyordu. İnsanların bir yapay zeka desteğinin kendilerine yanıt vermesi konusunda nasıl hissedeceklerine ilişkin davranışsal soruları değerlendirmek için bir dizi deney gerçekleştirdik ve toplumun böyle bir şeye hazır olmadığı sonucuna vardık. Ancak fişi çektikten birkaç ay sonra ChatGPT sahneye çıktı ve yapay zeka o kadar yaygın ki bunun etik açıdan şüpheli mi yoksa meşru mu olduğu konusunda nasıl endişelendiğimizi neredeyse merak ediyorum. Ancak yine de meşru kullanım durumuyla ilgili zorlu etik soruları sormamızın doğru olduğunu düşünüyorum.

Erkek egemen teknoloji endüstrisinin ve buna bağlı olarak erkek egemen yapay zeka endüstrisinin zorluklarını nasıl aşıyorsunuz?

Bir araştırmacı olarak bu zorlukları çok şiddetli hissetmedim. Az önce Körfez Bölgesi’ndeydim ve otel asansöründe kelimenin tam anlamıyla asansör konuşmalarını yapan adamlar vardı, bu korkutucu olduğunu görebildiğim bir klişe. Akıl hocaları (erkek ve kadın) bulmalarını, becerilerini geliştirmelerini ve bu becerilerin kendi adına konuşmasına izin vermelerini, zorlukların üstesinden gelmelerini ve dirençli kalmalarını tavsiye ederim.

Yapay zeka alanına girmek isteyen kadınlara ne gibi tavsiyelerde bulunursunuz?

Kadınlar için pek çok fırsat olduğunu düşünüyorum; becerilerini geliştirmeleri ve özgüven sahibi olmaları gerekiyor ve gelişecekler.

Yapay zeka geliştikçe karşı karşıya kalan en acil sorunlardan bazıları nelerdir?

Yapay zeka topluluğunun şu gibi konulara odaklanan pek çok araştırma girişimi geliştirmesinden endişeleniyorum:süper hizalamaBu, yapay zekayı kimin değerlerine veya hangi değerlere uyumlu hale getirmeye çalıştığımızla ilgili daha derin veya aslında doğru soruları gölgede bırakıyor. Google İkizler problemli kullanıma sunma, geliştiricilerin dar bir değerler dizisine uyum sağlamanın, çıktılarında (neredeyse) gülünç tarihsel yanlışlıklara yol açacak şekilde ortaya çıkabilecek karikatürü gösterdi. Bu geliştiricilerin değerlerinin iyi niyetli olduğunu düşünüyorum, ancak bu büyük dil modellerinin insanların siyaset, sosyal ilişkiler ve çeşitli hassas konular hakkındaki düşüncelerini şekillendirecek belirli bir dizi değerle programlandığı gerçeğini ortaya çıkardı. Bu sorunlar varoluşsal risk türünden değildir ancak toplumun dokusunu oluşturur ve bu modellerden sorumlu olan büyük firmalara (örn. OpenAI, Google, Meta vb.) hatırı sayılır bir güç kazandırır.

Yapay zeka kullanıcılarının bilmesi gereken bazı sorunlar nelerdir?

Yapay zeka her yerde yaygınlaştıkça, “güven ama doğrula” dünyasına girdiğimizi düşünüyorum. Hiçbir şeye inanmamak nihilistlik ama yapay zeka tarafından üretilen çok sayıda içerik var ve kullanıcıların içgüdüsel olarak güvendikleri şeyler konusunda gerçekten ihtiyatlı olmaları gerekiyor. Her şeyin doğru olduğunu varsaymadan önce, orijinalliği doğrulamak için alternatif kaynaklar aramak iyidir. Ama sanırım bunu zaten sosyal medya ve yanlış bilgilendirmeyle öğrendik.

Yapay zekayı sorumlu bir şekilde oluşturmanın en iyi yolu nedir?

Geçenlerde bir yazdım parça Nükleer silahları ele almaya başlayan ancak yapay zeka gibi yıkıcı teknolojileri ele alacak şekilde uyarlanan Atom Bilimcileri Bülteni için. Bilim adamlarının nasıl daha iyi kamu görevlileri olabileceğini düşünüyordum ve bir kitap projesi için baktığım bazı tarihsel vakaları birbirine bağlamak istedim. Sorumlu gelişim için destekleyeceğim bir dizi adımı özetlemekle kalmıyor, aynı zamanda yapay zeka geliştiricilerinin sorduğu bazı soruların neden yanlış, eksik veya yanlış yönlendirilmiş olduğunu da anlatıyorum.

Yorum gönder