AI ne estas nur alia ilo. Kio tenas nin en la blinda punkto?
"En la trajno mi sidis apud la fenestro.
Super la nebulo, en kiu la maten-suno
ĵetis ruĝan brilon, mi vidis la tegmenton
de nia domo. Tiel, mi foriris."
Kiam temas pri AI kaj kiel ĝi ŝanĝos nian vivon, publikaj komentoj ofte rememorigas min pri tiu kanto de Timbuk 3, “The future’s so bright, I gotta wear shades”.
Voĉoj petantaj iom da singardo facile estas silentigitaj kiel tro pesimismaj. Multaj ankoraŭ estas konvinkitaj, ke AI estas nur alia ilo, ne kapabla “pensi” kaj, sekve, ne kapabla fari iujn ajn decidojn memstare. Dum la ideo ke ni sidas ĉe la stirilo povas esti tre konsola kaj trankviliga, estas tempo por vekiĝo.
AI-agentoj
Foje la realo atingas nin pli rapide ol atendite. En la pasintaj kelkaj jaroj, ĉiufoje kiam mi menciis la ideon pri AI-sistemoj evoluantaj ‘agentecon’ al miaj studentoj, mi renkontis malplenajn rigardojn aŭ sulkigitajn brovojn. – Hodiaŭ, la termino ‘AI-agento’ subite fariĝis moda vorto. Antaŭ nur kelkaj semajnoj, OpenAI – unu el la ĉefaj esplororganizaĵoj pri AI – anoncis, ke ili planas ŝargi ĝis $20,000 monate por specialigitaj tiel nomataj AI-‘agentoj’. La prezoj varias de $2,000 monate por AI-agento je la nivelo de “altenspeza scikampa laboristo”, softvarista agente kostos ĉirkaŭ $10,000 monate, kaj ĉe la supro troviĝas ‘doktornivela esploragento’, kiu kostos almenaŭ $20,000 monate.
“AI ne estas ilo – ĝi estas aganto” (Yuval Noah Harari)
Tiel aŭ tiel, unu afero estas certa: evoluoj en AI faras gigantajn saltojn kun ĉiam pli rapida ritmo. Nur antaŭ duonjaro, en septembro 2024, la konata historiisto Yuval Noah Harari publikigis Nexus, pri informaj retoj de la frua historio ĝis AI hodiaŭ. En Nexus, li avertas nin: “AI ne estas ilo – ĝi estas aganto”. Li celis diri, ke AI havas la kapablon anstataŭi homojn en la farado de decidoj. Harari estis severe kritikata pro tio, kelkaj ridindigis lin kiel profeton de pereo. Oni riproĉis lin, ke lia libro estas “bazita sur supraĵa erudicio”. Iu eĉ rekte sugestis, ke la vera leciono de Harari estas: “vi povas gajni grandegan monon kun profetaĵoj pri pereo”.
“AI-sistemoj eble estas pli inteligentaj ol ni scias” (Geoffrey Hinton)
Sed eĉ Geoffrey Hinton, la tiel nomata "patro de AI", kiu kunhavis la Nobel-premion pri Fiziko en 2024 kun John Hopfield, avertas nin severe: “Ni eniras epokon kiam unuafoje eble ekzistos aĵoj pli inteligentaj ol ni.” - “AI-sistemoj eble estas pli inteligentaj ol ni scias kaj ekzistas ŝanco ke la maŝinoj povus transpreni.” Li eĉ forlasis Google en majo 2023 pro siaj zorgoj pri la multaj riskoj de AI.
Se eĉ la plej brilaj kaj plej spertaj inter ni en la kampo de AI avertas pri eblaj neatenditaj detruaj sekvoj, eble estas tempo por aŭskulti. Eble estas tempo por prokrasti nian juĝon, eĉ se nur por momento.
Vincent Ginnis, profesoro pri matematiko, fiziko kaj artefarita inteligenteco ĉe la Libera Universitato de Bruselo-VUB kaj ĉe Harvard Universitato, estas tre zorgoplena pri la maltrankviliga manko de zorgo pri la danĝeroj de AI. Ĉe lastatempa konferenco pri AI-sekureco en Parizo, neniu ŝajnis plu zorgi pri la danĝeroj. Anstataŭe, temis nur pri PR kaj lukto pri povo.
Iam, laŭ Ginnis, AI-sekureco temis pri riskoj por la homaro: milionoj eble perdantaj siajn laborpostenojn, misinformado kaj manipulado disvastiĝantaj je skalo minacanta demokration, AI-sistemoj eble iam farantaj decidojn kiujn ni ne plu komprenas, des malpli kontrolas. Anstataŭe, en Parizo temis pri povo: Kiu ricevos AI? Kiu regos ĝin? Kiu antaŭas en la vetkuro? La fokuso, laŭ Ginnis, ŝanĝiĝis de riskoj al geopolitiko.
La ĉina ĉambro
Kiam mi ankoraŭ estis studento pri filozofio en la 1980-aj jaroj, mi memoras, ke ni diskutis la pensan eksperimento de John Searle: la Ĉina Ĉambro. Tiutempe AI estis nur teoria ebleco, temo en sciencfikciaj filmoj, sed ne ion serioze konsiderindan.
Resume, la argumento de Searle estas tia: iu sidas en ĉambro kaj ricevas paperfoliojn kun ĉinaj signoj. Tiu persono sekvas detalan instrukciotabelon por transformi la mesaĝojn en aliaj mesaĝoj, kvazaŭ komputila programo. Ekstere, ŝajnas ke tiu homo komprenas la ĉinan, sed efektive li simple sekvas regulojn kaj tute ne komprenas la lingvon.
Maria en la nigra-kaj-blanka ĉambro
Alia fama ekzemplo estas de la aŭstralia filozofo Frank Jackson. En sia artikolo What Mary didn’t know (1986), li prezentas la jenan pensan eksperimenton: en estonta mondo, sciencistino Maria vivas en nigra-kaj-blanka ĉambro kaj scias ĉion pri la scienco de kolorpercepto, sed ŝi neniam vidis koloron. Unu tagon, ŝi eliras kaj vidas ruĝan pomon. La demando estas: ĉu ŝi lernas ion novan? Jackson diras: jes — ŝi lernas kiel aspektas la sperto vidi ruĝecon. Tio estas qualia, individuaj konsciaj spertoj.
Ĉu AI devas havi konscion por esti inteligenta?
Ĉi tiu eksperimento ofte estas uzata por montri, ke estas nepra baro inter AI kaj la homa menso. AI estas kiel Maria antaŭ ol ŝi eliris la ĉambron – sen reala sperto.
Ĉi tio alportas interesan observadon: multaj supozas ke AI devas havi konscion por esti “vere” inteligenta. Sed eble ni eraras. Eble inteligenteco ne nepre postulas konscion. Ĉi tiu eraro povus esti nia blinda punkto.
“Mi bedaŭras, Dave, mi timas ke mi ne povas fari tion.” (HAL 9000)
Se ni ignoras la eblon de ĝenerala AI, ni eble ne rekonos la realajn danĝerojn. Kiel ĉe la cunamo en 2004: la akvo retiriĝis, kaj homoj staris tie scivole, eĉ kiam la akvomuro alproksimiĝis.
“AI superos nin je rapideco kaj kompreno” (Geoffrey Hinton)
Hinton ankaŭ atentigas ke la ĉefa diferenco inter homa memoro kaj AI estas la kapablo de AI samtempe dividi kaj sinkronigi scion je nerezistebla rapideco. Homoj komunikas peco post peco, sed AI povas komuniki kvazaŭ tuta interreto en unu momento. Se inteligenteco temas pri lernado kaj kunhavado de scio – AI superos nin.
La danĝero venas de ni mem
Ni ne timu AI kiel en sciencfikcio. La vera danĝero estas nia rilato al ĝi. Ni subkonscie vidas AI kiel "nur komputilon kun klavaro". Tial ni neas ĝian agentecon.
Sed eĉ nun, AI-sistemoj analizas masivajn datumojn, decidas en frakcioj da sekundo, kaj pli kaj pli sen homa interveno – en sociaj retoj, financaj merkatoj, ktp. Ni delegas homajn decidojn al tiuj sistemoj.
La principo de 'plej malmulte da peno'
Ju pli komfortaj ni fariĝas kun teknologio, des pli ni fidas je ĝi senkritike. En la pasinteco oni skribis SQL-kodojn; hodiaŭ ni nur diras “Hej, Google” kaj akceptas la rezulton sen dubo.
Kiel ni ricevis la usonajn "reciprokajn tarifojn"?
Prof. Bastian Leibe (RWTH Aachen) rakontas ke la usonaj tarifoj anoncitaj de Trump en 2025 ne kongruas kun ekonomia logiko, sed strange egalas al la rezultoj de LLM-oj. Oni suspektas ke la registaro simple fidis je AI-respondoj – sen kontrolado. Tio havas reajn konsekvencojn.
Ni estas logataj cedi nian aŭtonomecon
Ni vivas en mondo kie AI fariĝas pli lerta kaj ni pli facilanime cedas decidpovon. La lukto estas inter la homa fantazio pri sendependeco kaj la logopovo de teknologio.
Ni devos fronti malfacilajn demandojn
Kion ni vere volas regi per nia propra agenteco? Kiam ni uzos AI por helpi decidojn? Kaj kiam ni delegos ilin – sed sub klare difinitaj kondiĉoj kaj kontroloj?
Ni devas gvidi la transiron
Ni ne havas la lukson ignori tiujn demandojn. Se ni ne zorgas, la transiro al homa-AI-kunlaboro povus esti tro interrompa. La vera demando estas: kiel ni povas kontribui al pli inkluziva kaj justa mondo? – Tial ni pledas por daŭranta politika debato pri AI-regulado, eksplicite konsiderante la kreskantan agentecon de AI.
Referencoj
Anderson, J. & Rainie, L. (2023). The Future of Human Agency. In Pew Research Center, https://www.pewresearch.org/internet/2023/02/24/the-future-of-human-agency/
Baron, S. (2025). Are a Machine's Thoughts Real? The Answer Matters Now More Than Ever. In Science Alert, https://www.sciencealert.com/are-a-machines-thoughts-real-the-answer-matters-now-more-than-ever
Douglas Heaven, W. (2023). Deep learning pioneer Geoffrey Hinton quits Google. In MIT Technology Review, https://web.archive.org/web/20230501125621/https://www.technologyreview.com/2023/05/01/1072478/deep-learning-pioneer-geoffrey-hinton-quits-google/
Edwards, B. (2025). What does “PhD-level” AI mean? OpenAI’s rumored $20,000 agent plan explained. In Ars Technica, https://arstechnica.com/ai/2025/03/what-does-phd-level-ai-mean-openais-rumored-20000-agent-plan-explained/
Ferguson, N. (2025). The Doom Nexus. In Niall Ferguson’s Time Machine, https://niallferguson.substack.com/p/the-doom-nexus
Foreman, J. T. (2024). How to Make it as a Doomsday Prophet. In The Metaphor, https://www.taylorforeman.com/p/how-to-make-it-as-a-doomsday-prophet
Ginnis, V. (2025). Is er nog íémand bekommerd om de gevaren van AI? In De Standaard, 15 February 2025, https://www.standaard.be/cnt/dmf20250214_96655287 [In Dutch; English title: Is there still anyone concerned about the dangers of AI?]
Harari, Y. N. (2024). Nexus. A Brief History of Information Networks from the Stone Age to AI. Vintage Publishing, Kindle Edition.
Jackson, F. (1986). What Mary Didn’t Know. In The Journal of Philosophy, Vol. 83, No. 5 (May, 1986), pp. 291-295.
Leibe, B. (2025). Post on LinkedIn, https://www.linkedin.com/feed/update/urn:li:activity:7313873939691130880/
Lim, D. (2024). Why Yuval Noah Harari’s AI Doomsday Prophecies Are Misleading. In Medium, https://medium.com/@don-lim/why-yuval-noah-hararis-ai-doomsday-prophecies-are-misleading-5541504ec3ab
Molek, N., Pulinx, R. & van Biezen, A. (eds.)(2024). Analysis of the State of the Art on the Future of Human Workforce. Scientific Report. Transform, European Union.
Palazzolo, S. and Weinberg, C. (2025). OpenAI Plots Charging $20,000 a Month For PhD-Level Agents. In The Information, https://www.theinformation.com/articles/openai-plots-charging-20-000-a-month-for-phd-level-agents
Pelley, S. (2024). "Godfather of Artificial Intelligence" Geoffrey Hinton on the promise, risks of advanced AI. In CBS News, https://www.cbsnews.com/news/geoffrey-hinton-ai-dangers-60-minutes-transcript/
Renard, V. et al. (2024). Mary Steps Out: Capturing Patient Experience through Qualitative and AI Methods. In NEJM AI, Vol. 1 No. 12, https://ai.nejm.org/doi/10.1056/AIp2400567
Saso, E. (2025). The path to safe, ethical AI: SRI highlights from the 2025 IASEAI conference in Paris. In Schwarz Reisman Institute for Technology and Society, University of Toronto. https://srinstitute.utoronto.ca/news/the-path-to-safe-ethical-ai
Searle, J. (1980). Minds, Brains and Programs. In Behavioral and Brain Sciences, 3, pp. 417-517.
Searle, J. (1984). Minds, Brains and Science. Cambridge, Mass., Harvard university press.
van Biezen, A.F. (2016). A Case for Naturalism. In van Biezen, A.F., The Torch of Discovery, http://alexanderfvanbiezen.blogspot.com/2016/05/a-case-for-naturalism.html
van Biezen, A.F. (2022). Top-Down Cosmology and Model-Dependent Realism. A Philosophical Study of the Cosmology of Stephen Hawking and Thomas Hertog. Brussels, VUB Press.
van Biezen, A. (2024). Emerging Skills for the Future Workforce. In Analysis of the State of the Art on the Future of Human Workforce. Scientific Report. Molek, N., Pulinx, R. and van Biezen, A. (eds.)(2024), Transform, European Union.
Wang, X. (2023). The Possibility of Artifical Qualia. In Communications in Humanities Research, https://doi.org/10.54254/2753-7064/6/20230083
Wiggers, K. (2025). OpenAI reportedly plans to charge up to $20,000 a month for specialized AI ‘agents’. In TechCrunch, https://techcrunch.com/2025/03/05/openai-reportedly-plans-to-charge-up-to-20000-a-month-for-specialized-ai-agents/
Piednotoj
[1] Citaĵo el la kanto “The Future’s So Bright, I Gotta Wear Shades” de Timbuk 3, https://www.imdb.com/title/tt6891542/trivia/
[2] Ĉi tiu bloga afiŝo baziĝas sur ĉefa prelego farita ĉe la internacia konferenco ‘Transform: The Future of Human Workforce’ la 27-an de marto 2025.
[3] Komence de marto 2025.
[4] Vidu Palazzolo, S. & Weinberg, C. (2025).
[5] Wiggers (2025).
[6] Vidu Edwards (2025).
[7] Harari (2024), p. XXII.
[8] Vidu Harari (2024), p. XXII.
[9] Ekz. Lim (2024).
[10] Ferguson (2025).
[11] Foreman (2024).
[12] Vidu Pelley (2024).
[13] Vidu Douglas Heaven (2023).
[14] Ginnis (2025).
[15] Ginnis (2025).
[16] La sekva priskribo baziĝas sur Searle (1980) kaj Searle (1984).
[17] Jackson (1986).
[18] Por pli detala diskuto, vidu van Biezen (2016) kaj van Biezen (2022).
[19] Vidu ekz. Wang (2023), Baron (2025), Renard (2024).
[20] Citaĵo el la filmo 2001: A Space Odyssey (1968) de Stanley Kubrick, https://www.imdb.com/title/tt0062622/quotes/
[21] Hinton en Saso (2025).
[22] Hinton en Saso (2025).
[23] Vidu Anderson & Rainie (2023).
[24] Vidu Leibe (2025).
[25] Vidu Leibe (2025) por pliaj referencoj.
[26] Leibe (2025).
[27] Leibe (2025).
[28] Anderson & Rainie (2023).
[29] Vidu Anderson & Rainie (2023).
[30] Vidu ankaŭ van Biezen (2024) kaj Molek, N., Pulinx, R. & van Biezen, A. (red.) (2024).

Comments
Post a Comment