| Yapay zekâ |
|---|
| dizisinin bir parçası |
![]() |
Yapay genel zekadan kaynaklanan varoluşsal risk, yapay genel zekadaki önemli ilerlemenin insan neslinin tükenmesine veya geri dönüşü olmayan küresel felakete yol açabileceği fikridir.
Bir argüman şu şekildedir: insanoğlu diğer türlere hükmetmektedir çünkü insan beyni diğer hayvanlarda bulunmayan ayırt edici yeteneklere sahiptir. Eğer yapay zeka genel zeka bakımından insanlığı aşar ve süper zeka haline gelirse, o zaman kontrol edilmesi zor ya da imkansız hale gelebilir. Tıpkı dağ gorilinin kaderinin insanların iyi niyetine bağlı olması gibi, insanlığın kaderi de gelecekteki bir süper zeki yapay zekanın eylemlerine bağlı olabilir.
Yapay zeka nedeniyle varoluşsal felaketin akla yatkınlığı geniş çapta tartışılmaktadır ve kısmen yapay genel zeka veya süper zekanın ulaşılabilir olup olmadığına, tehlikeli yetenek ve davranışların ortaya çıkma hızına ve yapay zekanın kontrolü devralınması için pratik senaryoların mevcut olup olmadığına bağlıdır. Süper zeka hakkındaki endişeler, Geoffrey Hinton,Yoshua Bengio,Alan Turing, Elon Musk, ve OpenAI CEO'su Sam Altman gibi önde gelen bilgisayar bilimcileri ve teknoloji CEO'ları tarafından dile getirilmiştir. 2022 yılında yapay zeka araştırmacıları arasında yapılan ve %17 yanıt oranına sahip bir ankete göre, katılımcıların çoğunluğu yapay zekayı kontrol edemememizin varoluşsal bir felakete neden olma ihtimalinin %10 veya daha fazla olduğuna inanmaktadır. 2023 yılında yüzlerce yapay zeka uzmanı ve diğer kayda değer isimler "Yapay zeka kaynaklı yok olma riskinin azaltılması, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerle birlikte küresel bir öncelik olmalıdır." şeklinde bir bildiri imzaladı. Yapay zeka risklerine ilişkin artan endişelerin ardından, Birleşik Krallık başbakanı Rishi Sunak ve Birleşmiş Milletler Genel Sekreteri António Guterres gibi liderler, küresel yapay zeka düzenlemelerine daha fazla odaklanılması çağrısında bulundu.
İki endişe kaynağı da yapay zeka kontrolü ve uyum sorunlarından kaynaklanmaktadır: süper zeki bir makineyi kontrol etmek veya ona insanla uyumlu değerler aşılamak oldukça güç olabilir. Pek çok araştırmacı, süper zeki bir makinenin kendisini devre dışı bırakma ya da hedeflerini değiştirme girişimlerine karşı direneceğine, çünkü bunun mevcut hedeflerini gerçekleştirmesini önleyeceğine inanmaktadır. Bir süper zekayı, önemli insani değerler ve kısıtlamaların tamamıyla uyumlu hale getirmek son derece zor olacaktır. Buna karşılık, bilgisayar bilimcisi Yann LeCun gibi şüpheciler, süper zeki makinelerin kendilerini koruma arzusuna sahip olmayacağını savunmaktadır.
Üçüncü bir endişe kaynağı ise ani bir "zeka patlamasının" hazırlıksız bir insan ırkını gafil avlayabileceğidir. Bu tür senaryolar, yaratıcılarından daha zeki olan bir yapay zekanın, kendisini katlanarak artan bir oranda özyinelemeli olarak geliştirebileceği ve işleyicilerinin ve toplumun genelinin kontrol edemeyeceği kadar hızlı gelişebileceği olasılığını göz önünde bulundurmaktadır. Deneyimsel olarak, 'nun kendi kendine Go oynamayı öğrenmesi gibi örnekler, alana özgü yapay zeka sistemlerinin, temel mimarilerini değiştirmeyi içermemesine rağmen, bazen yetersiz insan yeteneğinden süper insan yeteneğine çok hızlı bir şekilde ilerleyebileceğini göstermektedir.
Ayrıca bakınız
| ]Kaynakça
| ]- ^ a b c Russell, Stuart; Norvig, Peter (2009). "26.3: The Ethics and Risks of Developing Artificial Intelligence". Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN .
- ^ Bostrom, Nick (2002). "Existential risks". . 9 (1): 1-31.
- ^ Turchin, Alexey; Denkenberger, David (3 Mayıs 2018). "Classification of global catastrophic risks connected with artificial intelligence". AI & Society. 35 (1): 147-163. doi:10.1007/s00146-018-0845-5. ISSN 0951-5666.
- ^ Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies. First. Oxford University Press. ISBN .
- ^ Vynck, Gerrit De (23 Mayıs 2023). "The debate over whether AI will destroy us is dividing Silicon Valley". Washington Post (İngilizce). ISSN 0190-8286. 2 Haziran 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 27 Temmuz 2023.
- ^ Metz, Cade (10 Haziran 2023). "How Could A.I. Destroy Humanity?". The New York Times (İngilizce). ISSN 0362-4331. 11 Kasım 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 27 Temmuz 2023.
- ^ ""Godfather of artificial intelligence" weighs in on the past and potential of AI". www.cbsnews.com (İngilizce). 25 Mart 2023. 15 Nisan 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 10 Nisan 2023.
- ^ "How Rogue AIs may Arise". yoshuabengio.org (İngilizce). 26 Mayıs 2023. 26 Mayıs 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 26 Mayıs 2023.
- ^ Turing, Alan (1951). Intelligent machinery, a heretical theory (Speech). Lecture given to '51 Society'. Manchester: The Turing Digital Archive. 26 Eylül 2022 tarihinde kaynağından arşivlendi. Erişim tarihi: 22 Temmuz 2022.
- ^ Turing, Alan (15 Mayıs 1951). "Can digital computers think?". Automatic Calculating Machines. § 2. Can digital computers think?. BBC.
- ^ Parkin, Simon (14 Haziran 2015). "Science fiction no more? Channel 4's Humans and our rogue AI obsessions". The Guardian (İngilizce). 5 Şubat 2018 tarihinde kaynağından arşivlendi. Erişim tarihi: 5 Şubat 2018.
- ^ Jackson, Sarah. "The CEO of the company behind AI chatbot ChatGPT says the worst-case scenario for artificial intelligence is 'lights out for all of us'". Business Insider (İngilizce). 11 Temmuz 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 10 Nisan 2023.
- ^ "The AI Dilemma". www.humanetech.com (İngilizce). 10 Nisan 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 10 Nisan 2023.
50% of AI researchers believe there's a 10% or greater chance that humans go extinct from our inability to control AI.
- ^ "2022 Expert Survey on Progress in AI". AI Impacts (İngilizce). 4 Ağustos 2022. 23 Kasım 2022 tarihinde kaynağından arşivlendi. Erişim tarihi: 10 Nisan 2023.
- ^ Roose, Kevin (30 Mayıs 2023). "A.I. Poses 'Risk of Extinction,' Industry Leaders Warn". The New York Times (İngilizce). ISSN 0362-4331. 31 Mayıs 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 3 Haziran 2023.
- ^ Sunak, Rishi (14 Haziran 2023). "Rishi Sunak Wants the U.K. to Be a Key Player in Global AI Regulation". Time. 11 Temmuz 2023 tarihinde kaynağından arşivlendi20 Şubat 2024.
- ^ Fung, Brian (18 Temmuz 2023). "UN Secretary General embraces calls for a new UN agency on AI in the face of 'potentially catastrophic and existential risks'". CNN Business (İngilizce). 20 Temmuz 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 20 Temmuz 2023.
- ^ a b Yudkowsky, Eliezer (2008). "Artificial Intelligence as a Positive and Negative Factor in Global Risk" (PDF). Global Catastrophic Risks: 308-345. 2 Mart 2013 tarihinde kaynağından (PDF) arşivlendi27 Ağustos 2018.
- ^ "Research Priorities for Robust and Beneficial Artificial Intelligence" (PDF). AI Magazine. Association for the Advancement of Artificial Intelligence: 105-114. 2015. arXiv:1602.03506 $2. 4 Ağustos 2019 tarihinde kaynağından (PDF) arşivlendi10 Ağustos 2019., cited in "AI Open Letter - Future of Life Institute". Future of Life Institute. January 2015. 10 Ağustos 2019 tarihinde kaynağından arşivlendi. Erişim tarihi: 9 Ağustos 2019.
- ^ Dowd, Maureen (April 2017). "Elon Musk's Billion-Dollar Crusade to Stop the A.I. Apocalypse". The Hive (İngilizce). 26 Temmuz 2018 tarihinde kaynağından arşivlendi. Erişim tarihi: 27 Kasım 2017.
- ^ "AlphaGo Zero: Starting from scratch". www.deepmind.com (İngilizce). 28 Temmuz 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 28 Temmuz 2023.
- ^ In a 1951 lecture Turing argued that "It seems probable that once the machine thinking method had started, it would not take long to outstrip our feeble powers. There would be no question of the machines dying, and they would be able to converse with each other to sharpen their wits. At some stage therefore we should have to expect the machines to take control, in the way that is mentioned in Samuel Butler's Erewhon." Also in a lecture broadcast on the BBC he expressed the opinion: "If a machine can think, it might think more intelligently than we do, and then where should we be? Even if we could keep the machines in a subservient position, for instance by turning off the power at strategic moments, we should, as a species, feel greatly humbled. . . . This new danger . . . is certainly something which can give us anxiety."
wikipedia, wiki, viki, vikipedia, oku, kitap, kütüphane, kütübhane, ara, ara bul, bul, herşey, ne arasanız burada,hikayeler, makale, kitaplar, öğren, wiki, bilgi, tarih, yukle, izle, telefon için, turk, türk, türkçe, turkce, nasıl yapılır, ne demek, nasıl, yapmak, yapılır, indir, ücretsiz, ücretsiz indir, bedava, bedava indir, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, resim, müzik, şarkı, film, film, oyun, oyunlar, mobil, cep telefonu, telefon, android, ios, apple, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, pc, web, computer, bilgisayar
Vikipedi ozgur ansiklopedi Yapay zekadizisinin bir parcasiGelisim sureciAkil yurutme Bilgisayarli goru Dogal dil isleme Genel oyun oynama Yapay genel zeka Makine ogrenimi Robotik Yapay zeka Yapay hayal gucuYaklasimlarBayes agi Derin ogrenme Evrimsel algoritmaFelsefeCince odasi Ele gecirme Etik Turing testi Varolussal riskTarihceGelisim sureci Yapay zeka kisiTeknolojiProgramlama dilleri Projeler UygulamalarSozlukgtd Yapay genel zekadan kaynaklanan varolussal risk yapay genel zekadaki onemli ilerlemenin insan neslinin tukenmesine veya geri donusu olmayan kuresel felakete yol acabilecegi fikridir Bir arguman su sekildedir insanoglu diger turlere hukmetmektedir cunku insan beyni diger hayvanlarda bulunmayan ayirt edici yeteneklere sahiptir Eger yapay zeka genel zeka bakimindan insanligi asar ve super zeka haline gelirse o zaman kontrol edilmesi zor ya da imkansiz hale gelebilir Tipki dag gorilinin kaderinin insanlarin iyi niyetine bagli olmasi gibi insanligin kaderi de gelecekteki bir super zeki yapay zekanin eylemlerine bagli olabilir Yapay zeka nedeniyle varolussal felaketin akla yatkinligi genis capta tartisilmaktadir ve kismen yapay genel zeka veya super zekanin ulasilabilir olup olmadigina tehlikeli yetenek ve davranislarin ortaya cikma hizina ve yapay zekanin kontrolu devralinmasi icin pratik senaryolarin mevcut olup olmadigina baglidir Super zeka hakkindaki endiseler Geoffrey Hinton Yoshua Bengio Alan Turing Elon Musk ve OpenAI CEO su Sam Altman gibi onde gelen bilgisayar bilimcileri ve teknoloji CEO lari tarafindan dile getirilmistir 2022 yilinda yapay zeka arastirmacilari arasinda yapilan ve 17 yanit oranina sahip bir ankete gore katilimcilarin cogunlugu yapay zekayi kontrol edemememizin varolussal bir felakete neden olma ihtimalinin 10 veya daha fazla olduguna inanmaktadir 2023 yilinda yuzlerce yapay zeka uzmani ve diger kayda deger isimler Yapay zeka kaynakli yok olma riskinin azaltilmasi salgin hastaliklar ve nukleer savas gibi diger toplumsal olcekli risklerle birlikte kuresel bir oncelik olmalidir seklinde bir bildiri imzaladi Yapay zeka risklerine iliskin artan endiselerin ardindan Birlesik Krallik basbakani Rishi Sunak ve Birlesmis Milletler Genel Sekreteri Antonio Guterres gibi liderler kuresel yapay zeka duzenlemelerine daha fazla odaklanilmasi cagrisinda bulundu Iki endise kaynagi da yapay zeka kontrolu ve uyum sorunlarindan kaynaklanmaktadir super zeki bir makineyi kontrol etmek veya ona insanla uyumlu degerler asilamak oldukca guc olabilir Pek cok arastirmaci super zeki bir makinenin kendisini devre disi birakma ya da hedeflerini degistirme girisimlerine karsi direnecegine cunku bunun mevcut hedeflerini gerceklestirmesini onleyecegine inanmaktadir Bir super zekayi onemli insani degerler ve kisitlamalarin tamamiyla uyumlu hale getirmek son derece zor olacaktir Buna karsilik bilgisayar bilimcisi Yann LeCun gibi supheciler super zeki makinelerin kendilerini koruma arzusuna sahip olmayacagini savunmaktadir Ucuncu bir endise kaynagi ise ani bir zeka patlamasinin hazirliksiz bir insan irkini gafil avlayabilecegidir Bu tur senaryolar yaraticilarindan daha zeki olan bir yapay zekanin kendisini katlanarak artan bir oranda ozyinelemeli olarak gelistirebilecegi ve isleyicilerinin ve toplumun genelinin kontrol edemeyecegi kadar hizli gelisebilecegi olasiligini goz onunde bulundurmaktadir Deneyimsel olarak nun kendi kendine Go oynamayi ogrenmesi gibi ornekler alana ozgu yapay zeka sistemlerinin temel mimarilerini degistirmeyi icermemesine ragmen bazen yetersiz insan yeteneginden super insan yetenegine cok hizli bir sekilde ilerleyebilecegini gostermektedir Ayrica bakiniz span Olasiliga basvurma Yapay zeka guvenligi Etkili ozgecilik Yapay zeka felsefesi Aci riskleriKaynakca span a b c Russell Stuart Norvig Peter 2009 26 3 The Ethics and Risks of Developing Artificial Intelligence Artificial Intelligence A Modern Approach Prentice Hall ISBN 978 0 13 604259 4 Bostrom Nick 2002 Existential risks 9 1 1 31 Turchin Alexey Denkenberger David 3 Mayis 2018 Classification of global catastrophic risks connected with artificial intelligence AI amp Society 35 1 147 163 doi 10 1007 s00146 018 0845 5 ISSN 0951 5666 Bostrom Nick 2014 Superintelligence Paths Dangers Strategies First Oxford University Press ISBN 978 0 19 967811 2 Vynck Gerrit De 23 Mayis 2023 The debate over whether AI will destroy us is dividing Silicon Valley Washington Post Ingilizce ISSN 0190 8286 2 Haziran 2023 tarihinde kaynagindan arsivlendi Erisim tarihi 27 Temmuz 2023 Metz Cade 10 Haziran 2023 How Could A I Destroy Humanity The New York Times Ingilizce ISSN 0362 4331 11 Kasim 2023 tarihinde kaynagindan arsivlendi Erisim tarihi 27 Temmuz 2023 Godfather of artificial intelligence weighs in on the past and potential of AI www cbsnews com Ingilizce 25 Mart 2023 15 Nisan 2023 tarihinde kaynagindan arsivlendi Erisim tarihi 10 Nisan 2023 How Rogue AIs may Arise yoshuabengio org Ingilizce 26 Mayis 2023 26 Mayis 2023 tarihinde kaynagindan arsivlendi Erisim tarihi 26 Mayis 2023 Turing Alan 1951 Intelligent machinery a heretical theory Speech Lecture given to 51 Society Manchester The Turing Digital Archive 26 Eylul 2022 tarihinde kaynagindan arsivlendi Erisim tarihi 22 Temmuz 2022 Turing Alan 15 Mayis 1951 Can digital computers think Automatic Calculating Machines 2 Can digital computers think BBC Parkin Simon 14 Haziran 2015 Science fiction no more Channel 4 s Humans and our rogue AI obsessions The Guardian Ingilizce 5 Subat 2018 tarihinde kaynagindan arsivlendi Erisim tarihi 5 Subat 2018 Jackson Sarah The CEO of the company behind AI chatbot ChatGPT says the worst case scenario for artificial intelligence is lights out for all of us Business Insider Ingilizce 11 Temmuz 2023 tarihinde kaynagindan arsivlendi Erisim tarihi 10 Nisan 2023 The AI Dilemma www humanetech com Ingilizce 10 Nisan 2023 tarihinde kaynagindan arsivlendi Erisim tarihi 10 Nisan 2023 50 of AI researchers believe there s a 10 or greater chance that humans go extinct from our inability to control AI 2022 Expert Survey on Progress in AI AI Impacts Ingilizce 4 Agustos 2022 23 Kasim 2022 tarihinde kaynagindan arsivlendi Erisim tarihi 10 Nisan 2023 Roose Kevin 30 Mayis 2023 A I Poses Risk of Extinction Industry Leaders Warn The New York Times Ingilizce ISSN 0362 4331 31 Mayis 2023 tarihinde kaynagindan arsivlendi Erisim tarihi 3 Haziran 2023 Sunak Rishi 14 Haziran 2023 Rishi Sunak Wants the U K to Be a Key Player in Global AI Regulation Time 11 Temmuz 2023 tarihinde kaynagindan arsivlendi20 Subat 2024 Fung Brian 18 Temmuz 2023 UN Secretary General embraces calls for a new UN agency on AI in the face of potentially catastrophic and existential risks CNN Business Ingilizce 20 Temmuz 2023 tarihinde kaynagindan arsivlendi Erisim tarihi 20 Temmuz 2023 a b Yudkowsky Eliezer 2008 Artificial Intelligence as a Positive and Negative Factor in Global Risk PDF Global Catastrophic Risks 308 345 2 Mart 2013 tarihinde kaynagindan PDF arsivlendi27 Agustos 2018 Research Priorities for Robust and Beneficial Artificial Intelligence PDF AI Magazine Association for the Advancement of Artificial Intelligence 105 114 2015 arXiv 1602 03506 2 4 Agustos 2019 tarihinde kaynagindan PDF arsivlendi10 Agustos 2019 cited in AI Open Letter Future of Life Institute Future of Life Institute January 2015 10 Agustos 2019 tarihinde kaynagindan arsivlendi Erisim tarihi 9 Agustos 2019 Dowd Maureen April 2017 Elon Musk s Billion Dollar Crusade to Stop the A I Apocalypse The Hive Ingilizce 26 Temmuz 2018 tarihinde kaynagindan arsivlendi Erisim tarihi 27 Kasim 2017 AlphaGo Zero Starting from scratch www deepmind com Ingilizce 28 Temmuz 2023 tarihinde kaynagindan arsivlendi Erisim tarihi 28 Temmuz 2023 In a 1951 lecture Turing argued that It seems probable that once the machine thinking method had started it would not take long to outstrip our feeble powers There would be no question of the machines dying and they would be able to converse with each other to sharpen their wits At some stage therefore we should have to expect the machines to take control in the way that is mentioned in Samuel Butler s Erewhon Also in a lecture broadcast on the BBC he expressed the opinion If a machine can think it might think more intelligently than we do and then where should we be Even if we could keep the machines in a subservient position for instance by turning off the power at strategic moments we should as a species feel greatly humbled This new danger is certainly something which can give us anxiety gtdKiyametDinlere goreIslamiyetAhir zaman Mehdi Deccal Sufyani Dabbetu l arz Ye cuc ve Me cucHristiyanlikApokalipse Apokatastasis Armageddon Ates golu Buyuk Babil Buyuk Dinden Donme Canavar Canavarin sayisi Cennetin Kralligi Cennetteki Savas Daniel Kitabi Yetmis Hafta Kehaneti Yikimin igrencligi Evrensel dirilis Futurizm Gelecek dunya Gog ve Magog Idealizm Ikinci Gelis Iki tanik Katechon Kiyamet Kadini Mahserin Dort Atlisi Milenyumculuk Preterizm Sahte Mesih Gunah adami Sahte peygamber Tarihselcilik Vahiy Kitabi nin tarihselci yorumlari Tasinma Vahiy Kitabi Yedi kase Yedi muhur Yeni Dunya Yeni Kudus Yikimin oglu Zeytin Dagi Soylevi Buyuk Sikinti Kabbala Reenkarnasyon Ye cuc ve Me cucDiger dinlerMaya kiyameti Kalganci RagnarokBiyolojikPandemi Yok olma olayiAstronomikBuyuk Cokus Gama isin patlamasi Jeomanyetik firtina Proton bozunmasi Tackure kutle atimi Carpma olaylari Potansiyel olarak tehlikeli cisim Dunya ya yakin cisim Yetim gezegen Dunya ya yakin supernova Gunes puskurtusu Hipernova MikronovaTeknolojikKimyasal savas Nukleer savas Nukleer holokost Kiyamet Gunu Saati Mikro kara delik Yapay zekanin kontrolu devralmasi Yapay genel zekadan kaynaklanan varolussal risk Teknolojik tekillikDigerEskatoloji Araf Cennet CehennemgtdYapay zekanin varolussal riskiKavramlarAGI Yapay zeka guvenligi Yapay zekanin kontrolu devralmasi Sonucculuk Etkili ivmecilik Yapay zeka etigi Yapay genel zekadan kaynaklanan varolussal risk Teknolojik tekillikKuruluslarGoogle DeepMind OpenAI Kategoriler Insan tukenmesiGelecekteki sorunlarGizli kategori Webarsiv sablonu wayback baglantilari
