Saltar ao contido

Intelixencia artificial xeral

Na Galipedia, a Wikipedia en galego.
Intelixencia Artificial Xeral (AGI)
Interpretación da AGI por un software (DALL-E mini) dun modelo de texto a imaxe
Autor orixinalInvestigadores en intelixencia artificial. Varios investigadores e científicos en todo o mundo
Desenvolvedor(es)Varios equipos de investigación a nivel global
Estado de desenvolvementoEn fase de investigación e desenvolvemento teórico
Lingua/sN/A (unha verdadeira AGI debería poder entender calquera lingua)
TipoInvestigación en Intelixencia Artificial

 Unha intelixencia xeral artificial (IXA, AGI polas siglas en inglés de artificial general intelligence) é un tipo hipotético de axente intelixente. En caso de se materializar, unha AGI podería aprender a realizar calquera tarefa intelectual que poidan realizar os seres humanos ou os animais.[1][2] Alternativamente, AGI definiuse como un sistema autónomo que supera as capacidades humanas na maioría das tarefas economicamente valiosas.[3] A creación da AGI é un obxectivo principal dalgunhas investigacións en intelixencia artificial e de empresas como OpenAI,[3] DeepMind e Anthropic. A AGI é un tema común na ciencia ficción e estudos sobre o futuro.

O calendario para o desenvolvemento de AGI segue sendo un tema de debate continuo entre investigadores e expertos. Algúns argumentan que se poderá acadar en anos ou décadas; outros sosteñen que pode levar un século ou máis; e unha minoría cre que nunca se conseguirá.[4] Ademais, hai debate sobre se os modelos modernos de grandes linguas, como o GPT-4 do ChatGPT, son formas temperás aínda que incompletas de AGI ou se son necesarios novos enfoques.[5]

Existe unha disputa sobre o potencial de que a AGI supoña unha ameaza para a humanidade;[6] por exemplo, OpenAI trátao como un risco existencial, mentres que outros consideran que o desenvolvemento dunha AGI é demasiado remoto para presentar un risco.[7] [8] [9] Unha enquisa de 2020 identificou 72 proxectos de I+D AGI activos repartidos en 37 países.[10]

Terminoloxía

[editar | editar a fonte]

A AGI tamén se coñece como IA forte (strong AI), [11] IA completa, (full AI)[12] AI de nivel humano (human-level AI)[8] ou acción intelixente xeral (general intelligent action).[13] Porén, algunhas fontes académicas reservan o termo "IA forte" para programas informáticos que experimentan sensibilidade ou conciencia.[a] Pola contra, a IA débil ou a IA estreita (weak AI, narrow AI) é capaz de resolver un problema específico, pero carece de capacidades cognitivas xerais. Algunhas fontes académicas usan a "IA débil" para referirse de xeito máis amplo a calquera programa que nin experimenta conciencia nin ten unha mente no mesmo sentido que os seres humanos.

Os conceptos relacionados inclúen a superintelixencia artificial e a IA transformadora. Unha superintelixencia artificial (ASI, artificial superintelligence) é un tipo hipotético de AGI que é moito máis intelixente en xeral que os humanos.[14] E a noción de IA transformadora refírese a que a IA teña un gran impacto na sociedade, por exemplo similar á revolución agrícola.[15]

Características

[editar | editar a fonte]

Propuxéronse varios criterios para a intelixencia (o máis famoso é o test de Turing) pero ningunha definición é amplamente aceptada.[b]

Trazos de intelixencia

[editar | editar a fonte]

Porén, os investigadores xeralmente sosteñen que a intelixencia é necesaria para facer todo o seguinte:[17]

  • razoar, utilizar estratexias, resolver crebacabezas e emitir xuízos baixo a incerteza
  • representar o coñecemento, incluíndo o sentido común
  • plan
  • aprender
  • comunicarse en linguaxe natural
  • se é necesario, integre estas habilidades para acadar calquera obxectivo

Moitos enfoques interdisciplinares (por exemplo, a ciencia cognitiva, a intelixencia computacional e a toma de decisións) consideran trazos adicionais como a imaxinación (a capacidade de formar imaxes e conceptos mentais novos)[18] e a autonomía.[19] Existen sistemas baseados en computadoras que presentan moitas destas capacidades (por exemplo, véxase creatividade computacional, razoamento automatizado, sistema de apoio á decisión, robot/ robótica, computación evolutiva, axente intelixente...). Porén, non hai consenso sobre que os sistemas modernos de IA as posúan nun grao adecuado.

Trazos físicos

[editar | editar a fonte]

Outras capacidades considéranse desexables en sistemas intelixentes, xa que poden afectar á intelixencia ou axudar na súa expresión. Estes inclúen:[20]

  • a capacidade de sentir (por exemplo, ver, escoitar, etc.), e
  • a capacidade de actuar (por exemplo, mover e manipular obxectos, cambiar de lugar para explorar, etc.)

Probas para AGI a nivel humano

[editar | editar a fonte]

Consideráronse varias probas destinadas a confirmar AGI a nivel humano, incluíndo:[21]

Unha máquina e un humano conversan sen ser vistos cun segundo humano, que debe avaliar cal dos dous é a máquina, que pasa a proba se pode enganar ao avaliador unha fracción significativa do tempo. Nota: Turing non prescribe o que debe cualificar como intelixencia, só que saber que é unha máquina debería descualificala. A IA de Eugene Goostman logrou a estimación de Turing de convencer ao 30% dos xuíces de que era humano en 2014.
  • The Robot College Student Test (Goertzel)
Unha máquina inscríbese nunha universidade, tomando e aprobando as mesmas clases que os humanos, e obtendo un título. Os LLM agora poden aprobar exames de grao universitario sen sequera asistir ás clases.[22]
Unha máquina realiza un traballo economicamente importante polo menos tan ben como os humanos no mesmo traballo. Agora as IAs están a substituír os humanos en moitos papeis tan variados como a comida rápida e o marketing[23]
Tamén coñecido como 'Flat Pack Furniture Test'. Unha IA ve as pezas e as instrucións dun produto de paquete plano de Ikea e despois controla un robot para montar os mobles correctamente.
Requírese unha máquina para entrar nunha casa americana media e descubrir como facer café: atopar a máquina de café, atopar o café, engadir auga, atopar unha cunca e preparar o café premendo os botóns axeitados. Isto aínda non se completou.

Problemas de IA completa

[editar | editar a fonte]

Hai moitos problemas que poden requirir intelixencia xeral para resolver os problemas tan ben como o fan os humanos. Por exemplo, mesmo tarefas sinxelas e específicas, como a tradución automática, requiren que unha máquina lea e escriba nos dous idiomas (NLP), siga o argumento do autor (razoamento), saiba do que se fala (coñecemento) e reproduza fielmente a orixinal intención do autor (intelixencia social). Todos estes problemas deben ser resoltos simultaneamente para alcanzar o rendemento da máquina a nivel humano.

Un problema chámase informalmente "AI-complete" ou "AI-hard" ("IA completa" ou "IA-dura" se se cre que para resolvelo é necesario implementar unha IA forte, porque a solución está máis aló das capacidades dun algoritmo específico para o propósito.[24]

Suponse que os problemas de intelixencia artificial inclúen a visión xeral por ordenador, a comprensión da linguaxe natural e o tratamento de circunstancias inesperadas mentres se resolve calquera problema do mundo real.[25]

Os problemas de intelixencia artificial non se poden resolver só coa tecnoloxía informática actual e requiren computación humana. Esta limitación podería ser útil para probar a presenza de humanos, como pretenden facer os CAPTCHA; e para que a seguridade informática repela ataques de forza bruta.

IA clásica

[editar | editar a fonte]

  A investigación moderna da IA comezou a mediados da década de 1950.[26] A primeira xeración de investigadores de IA estaba convencida de que a intelixencia xeral artificial era posíbel e de que existiría en poucas décadas.[27] O pioneiro da intelixencia artificial Herbert A. Simon escribiu en 1965: "as máquinas serán capaces, dentro de vinte anos, de facer calquera traballo que poida facer un home".[28]

As súas predicións foron a inspiración para o personaxe HAL 9000 de Stanley Kubrick e Arthur C. Clarke, que encarnaron o que os investigadores de IA crían que poderían crear para o ano 2001. O pioneiro da intelixencia artificial, Marvin Minsky, foi un consultor[29] no proxecto de facer que HAL (A. C. Clarke afirmou que seren as letras previas a IBM foi só casualidade) fose o máis realista posíbel segundo as previsións de consenso da época. Dixo en 1967: "Dentro dunha xeración... o problema de crear "intelixencia artificial" resolverase substancialmente".[30]

Varios proxectos clásicos de IA, como o proxecto Cyc de Doug Lenat (que comezou en 1984) e o proxecto Soar de Allen Newell, foron dirixidos á AGI. Porén, a principios dos anos 70, fíxose obvio que os investigadores subestimaran enormemente a dificultade do proxecto. As axencias de financiamento volvéronse escépticas con respecto a AGI e someteron aos investigadores a unha presión crecente para producir unha "IA aplicada" útil.[c] A principios dos anos 80, o Proxecto informático de quinta xeración de Xapón reavivou o interese en AGI, establecendo un calendario de dez anos que incluía obxectivos de AGI como "continuar unha conversación casual".[34] En resposta a isto e ao éxito dos sistemas expertos, tanto a industria como o goberno inxectaron diñeiro no campo.[35] [36]

Con todo, a confianza na IA derrubouse espectacularmente a finais dos anos 80, e os obxectivos do Proxecto informático de quinta xeración nunca se cumpriron.[37] Por segunda vez en 20 anos, os investigadores de IA que predixeron o logro inminente de AGI equivocaron. Na década de 1990, os investigadores de IA tiñan a reputación de facer promesas vanas. Fixéronse reticentes a facer predicións en absoluto[d] e evitaron mencionar a intelixencia artificial de "nivel humano" por medo a ser etiquetados como "soñador[es] de ollos salvaxes".[39]

Investigación estreita da IA

[editar | editar a fonte]

Na década de 1990 e principios do século XXI, a IA convencional logrou éxito comercial e respectabilidade académica centrándose en subproblemas específicos nos que a IA pode producir resultados verificables e aplicacións comerciais, como o recoñecemento de voz e os algoritmos de recomendación.[40] Estes sistemas de "IA aplicada" utilízanse agora amplamente en toda a industria tecnolóxica, e a investigación nesta liña está moi financiada tanto no ámbito académico como na industria. A partir de 2018, o desenvolvemento neste campo considerouse unha tendencia emerxente e espérase que en máis de 10 anos se alcanzara unha etapa madura.[41] A principios de século, moitos dos principais investigadores de IA[42] esperaban que se puidese desenvolver unha IA forte combinando programas que resolvían varios subproblemas. Hans Moravec escribiu en 1988:

Confío en que esta ruta de abaixo cara á intelixencia artificial atopará algún día a ruta tradicional de arriba abaixo máis da metade do camiño, lista para proporcionar a competencia do mundo real e o coñecemento do sentido común que foi tan frustrantemente esquivo nos programas de razoamento. Máquinas totalmente intelixentes resultarán cando o metafórico pico dourado sexa impulsado unindo os dous esforzos.[42]

Porén, mesmo nese momento, isto foi disputado. Por exemplo, Stevan Harnad, da Universidade de Princeton, concluíu o seu artigo de 1990 sobre a hipótese do fundamento do símbolo afirmando:

Moitas veces expresouse a expectativa de que os enfoques "de arriba abaixo" (simbólicos) para modelar a cognición atoparán dalgún xeito os enfoques "de abaixo a arriba" (sensorial) nalgún lugar intermedio. Se as consideracións fundamentais deste traballo son válidas, entón esta expectativa é irremediablemente modular e realmente só hai unha ruta viable desde o sentido até os símbolos: desde o principio. Nunca se chegará por esta vía (ou viceversa) a un nivel simbólico flotante como o nivel de software dunha computadora; tampouco está claro por que deberíamos tratar de alcanzar tal nivel, xa que parece que chegar até alí só sería necesario. equivalen a arrincar os nosos símbolos dos seus significados intrínsecos (reducíndonos simplemente ao equivalente funcional dun ordenador programábel).[43]

Investigación moderna en intelixencia artificial xeral

[editar | editar a fonte]

O termo "intelixencia xeral artificial" foi usado xa en 1997 por Mark Gubrud[44] nunha discusión sobre as implicacións da produción e operacións militares totalmente automatizadas. Un formalismo matemático de AGI foi proposto por Marcus Hutter en 2000. Chamado AIXI, o axente AGI proposto maximiza "a capacidade de satisfacer obxectivos nunha ampla gama de ambientes".[45] Este tipo de AGI, caracterizado pola capacidade de maximizar unha definición matemática de intelixencia en lugar de mostrar un comportamento humano,[46] tamén se chamou intelixencia artificial universal.[47]

O termo AGI foi reintroducido e popularizado por Shane Legg e Ben Goertzel ao redor de 2002.[48] A actividade de investigación de AGI en 2006 foi descrita por Pei Wang e Ben Goertzel[49] como "produción de publicacións e resultados preliminares". A primeira escola de verán en AGI foi organizada en Xiamen, China en 2009[50] polo Artificial Brain Laboratory da universidade de Xiamen e OpenCog. O primeiro curso universitario foi impartido en 2010[51] e 2011[52] na Universidade de Plovdiv, Bulgaria, por Todor Arnaudov. O MIT presentou un curso sobre AGI en 2018, organizado por Lex Fridman e no que participaron varios profesores invitados.

Desde 2023, un número baixo de científicos informáticos están activos nas conferencias sobre AGI, e moitos contribúen a unha serie de conferencias sobre AGI. Con todo, cada vez máis investigadores están interesados na aprendizaxe aberta ou continua,[2] que é a idea de permitir que a IA aprenda e innove continuamente como o fan os humanos. Aínda que a maioría dos traballos de aprendizaxe aberto seguen realizándose en Minecraft,[17][20][53][54] a súa aplicación pode estenderse á robótica e á ciencia en xeral.

Viabilidade

[editar | editar a fonte]

A partir de 2023, as formas completas de AGI seguen sendo especulativas. Aínda non se demostrou ningún sistema que cumpra cos criterios xeralmente aceptados para a AGI. As opinións varían tanto en se e cando chegará a intelixencia artificial xeral. O pioneiro da IA Herbert A. Simon especulou en 1965 que "as máquinas serán capaces, dentro de vinte anos, de facer calquera traballo que un home poida facer". Esa predición non se cumpriu. O cofundador de Microsoft, Paul Allen, cría que tal intelixencia sería improbábel no século XXI porque requeriría "avances imprevisíbs e fundamentalmente impredecíbeis" e un "entendemento cientificamente profundo da cognición".[55] Escribindo en The Guardian, o robótico Alan Winfield afirmou que o abismo entre a computación moderna e a intelixencia artificial a nivel humano é tan amplo como o abismo entre o voo espacial actual e o voo espacial práctico máis rápido que a luz.[56]

A maioría dos investigadores de IA cren que se pode conseguir unha IA forte no futuro, pero algúns pensadores, como Hubert Dreyfus e Roger Penrose, negan a posibilidade de lograr unha IA forte.[57] [58] John McCarthy está entre os que cren que a IA a nivel humano se logrará, pero que o nivel actual de progreso é tal que non se pode prever unha data con precisión.[59]

Opinións dos expertos en intelixencia artificial sobre a viabilidade do wax and wane AGI

[editar | editar a fonte]

Catro enquisas realizadas en 2012 e 2013 indicaron que a mediana estimada entre os expertos para cando estarían seguros nun 50% de chegar a AGI era de 2040 a 2050, dependendo da enquisa, sendo a media de 2081. Dos expertos, o 16,5% respondeu con "nunca" cando se lle fixo a mesma pregunta pero cun 90% de confianza.[60] [61] Pódense atopar máis consideracións sobre o progreso actual da AGI na sección anterior Tests para confirmar a AGI a nivel humano.

Un informe de Stuart Armstrong e Kaj Sotala do Machine Intelligence Research Institute descubriu que "ao longo de [un] período de 60 anos hai un forte sesgo para prever a chegada da IA a nivel humano entre 15 e 25 anos desde o momento en que fíxose unha predición". Analizaron 95 predicións feitas entre 1950 e 2012 sobre cando se producirá a IA a nivel humano.[62]

En 2023, os investigadores de Microsoft publicaron unha avaliación detallada de GPT-4. Concluíron: "Dada a amplitude e profundidade das capacidades do GPT-4, cremos que podería razoabelmente ser visto como unha versión inicial (aínda aínda incompleta) dun sistema de intelixencia xeral artificial (AGI)".[63] Outro estudo realizado en 2023 informou de que o GPT-4 supera o 99% dos humanos nas probas de pensamento creativo de Torrance.[64] [65]

Escalas de tempo

[editar | editar a fonte]

Na introdución ao seu libro de 2006,[66] Goertzel di que as estimacións do tempo necesario antes de construír un AGI verdadeiramente flexíbel varían de 10 anos a máis dun século. Desde 2007, o consenso na comunidade investigadora de AGI parecía ser que a liña temporal discutida por Ray Kurzweil en 2005 en The Singularity is Near [67] (é dicir, entre 2015 e 2045) era plausíbel.[68] Os principais investigadores de IA emitiron unha ampla gama de opinións sobre se o progreso será tan rápido. Unha metaanálise de 2012 de 95 opinións deste tipo atopou un nesgo para prever que a aparición de AGI ocorrería dentro de 16-26 anos para as predicións modernas e históricas. Ese documento foi criticado por clasificar as opinións como expertas ou non expertas.[69]

En 2012, Alex Krizhevsky, Ilya Sutskever e Geoffrey Hinton desenvolveron unha rede neuronal chamada AlexNet, que gañou o concurso ImageNet cunha taxa de erro nos cinco mellores tests do 15.3%, significativamente mellor que a taxa do segundo mellor participante do 26.3% (o enfoque tradicional utilizaba unha suma ponderada de puntuacións de diferentes clasificadores predefinidos). AlexNet foi considerada como a iniciadora da actual onda de aprendizaxe profunda.[70]

En 2017, os investigadores Feng Liu, Yong Shi e Ying Liu realizaron probas de intelixencia en IA débil dispoñíbel para o público e de acceso gratuíto, como Google AI, Siri de Apple e outros. Como máximo, estas IA alcanzaron un valor de coeficiente intelectual duns 47, o que corresponde aproximadamente a un neno de seis anos de primeiro curso. Un adulto chega a uns 100 de media. En 2014 realizáronse probas similares, coa puntuación do coeficiente intelectual alcanzando un valor máximo de 27.[71] [72]

En 2020, OpenAI desenvolveu GPT-3, un modelo de linguaxe capaz de realizar moitas tarefas diversas sen formación específica. Segundo Gary Grossman nun artigo de VentureBeat, aínda que hai consenso en que GPT-3 non é un exemplo de AGI, algúns considérano que é demasiado avanzado para clasificalo como un sistema de IA estreita.[73]

No mesmo ano, Jason Rohrer utilizou a súa conta GPT-3 para desenvolver un chatbot e proporcionou unha plataforma de desenvolvemento de chatbot chamada "Project December". OpenAI solicitou cambios no chatbot para cumprir coas súas pautas de seguridade; Rohrer desconectou Project December da API GPT-3.[74]

En 2022, DeepMind desenvolveu Gato, un sistema de "propósito xeral" capaz de realizar máis de 600 tarefas diferentes.

En 2023, Microsoft Research publicou un estudo sobre unha versión inicial do GPT-4 de OpenAI, afirmando que mostraba unha intelixencia máis xeral que os modelos anteriores de IA e demostraba un rendemento a nivel humano en tarefas que abarcan varios dominios, como matemáticas, codificación e dereito. Esta investigación provocou un debate sobre se o GPT-4 podería considerarse unha versión temperá e incompleta da intelixencia xeral artificial, facendo fincapé na necesidade de seguir explorando e avaliando estes sistemas. En 2023, Microsoft Research publicou un estudo sobre unha versión inicial do GPT-4 de OpenAI. Este modelo foi adestrado cunha escala de computación e datos sen precedentes, mostrando melloras significativas en moitas dimensións, como a capacidade de resumir documentos longos, responder a preguntas complexas sobre unha ampla variedade de temas e explicar o razoamento detrás das respostas, ademais de contar chistes e escribir código e poesía.[75] A medida que os modelos de fundación, como GPT-4, alcanzan un tamaño crítico, comezan a mostrar capacidades que non estaban presentes anteriormente, o que se coñece como "capacidades emerxentes". Non obstante, aínda existen limitacións significativas en canto a fiabilidade, exactitude e outras cuestións que deben ser exploradas.[75]

En 2023, o investigador de IA Geoffrey Hinton afirmou sobre a idea de que estas 'cousas' poderían ser realmente máis intelixentes que as persoas: 

Algunhas persoas crían iso, [...]. Pero a maioría da xente pensaba que estaba moi lonxe. Eu tamén pensei que estaba moi lonxe. Pensei que quedaban entre 30 e 50 anos ou incluso máis. Obviamente, xa non o penso.

Simulación cerebral

[editar | editar a fonte]

Emulación do cerebro completo

[editar | editar a fonte]

  Un enfoque posíbel para lograr a AGI é a emulación do cerebro enteiro: un modelo de cerebro constrúese escaneando e mapeando un cerebro biolóxico en detalle, e despois copiándoo e simulándoo nun sistema informático ou noutro dispositivo computacional. O modelo de simulación debe ser o suficientemente fiel ao orixinal, para que se comporte practicamente do mesmo xeito que o cerebro orixinal.[76] A emulación do cerebro enteiro é discutida en neurociencia computacional e neuroinformática, no contexto da simulación cerebral para fins de investigación médica. Foi discutido na investigación de intelixencia artificial [68] como unha aproximación á IA forte. As tecnoloxías de neuroimaxes que poderían proporcionar a comprensión detallada necesaria están mellorando rapidamente, e o futurista Ray Kurzweil no libro The Singularity Is Near [67] prevé que estará dispoñíbe un mapa de calidade suficiente nunha escala de tempo similar á potencia de cálculo necesaria para emulalo.

Estimacións anticipadas

[editar | editar a fonte]
Estimacións de canta potencia de procesamento é necesaria para emular un cerebro humano a varios niveis (de Ray Kurzweil, Anders Sandberg e Nick Bostrom ), xunto coa supercomputadora máis rápida de TOP500 mapeada por ano. Teña en conta a escala logarítmica e a liña de tendencia exponencial, que supón que a capacidade de cálculo se duplica cada 1,1 anos. Kurzweil cre que a carga da mente será posible na simulación neuronal, mentres que o informe de Sandberg, Bostrom é menos seguro de onde xorde a conciencia.[77]

Para a simulación cerebral de baixo nivel, sería necesario un grupo moi potente de ordenadores ou GPU. O cerebro humano ten un gran número de sinapses. Cada unha das 10 11 (cen mil millóns) neuronas ten unha media de 7.000 conexións sinápticas (sinapses) con outras neuronas. O cerebro dun neno de tres anos ten unhas 10 15 sinapses (1 billón). Este número diminúe coa idade, estabilizándose na idade adulta. As estimacións varían para un adulto, oscilando entre 10 14 e 5×10 14 sinapses (de 100 a 500 billóns).[78] Unha estimación da potencia de procesamento do cerebro, baseada nun modelo de conmutación simple para a actividade das neuronas, é duns 10 14 (100 billóns) de actualizacións sinápticas por segundo (SUPS).[79]

En 1997, Kurzweil analizou varias estimacións do hardware necesario para igualar o cerebro humano e adoptou unha cifra de 1016 cálculos por segundo (cps).[e] (A modo de comparación, se un "cómputo" fose equivalente a unha " operación de coma flotante", unha medida que se usa para clasificar os superordenadores actuais, entón 1016 "cómputos" serían equivalentes a 10 petaFLOPS, logrados en 2011, mentres que 1018 alcanzouse en 2022), Utilizou esta cifra para prever que o hardware necesario estaría dispoñíbel nalgún momento entre 2015 e 2025, se o crecemento exponencial da potencia dos ordenadores no momento da escritura continuase.

Investigación actual

[editar | editar a fonte]

  Algúns proxectos de investigación están investigando a simulación cerebral utilizando modelos neuronais máis sofisticados, implementados en arquitecturas informáticas convencionais. O proxecto do Sistema de Intelixencia Artificial implementou simulacións en tempo non real dun "cerebro" (con 10 11 neuronas) en 2005. Levou 50 días nun clúster de 27 procesadores simular 1 segundo dun modelo.[82] O proxecto Blue Brain utilizou unha das arquitecturas de supercomputadoras máis rápidas, a plataforma Blue Gene de IBM, para crear unha simulación en tempo real dunha única columna neocortical de ratas formada por aproximadamente 10.000 neuronas e 10 8 sinapses en 2006.[83] Un obxectivo a longo prazo é construír unha simulación detallada e funcional dos procesos fisiolóxicos no cerebro humano: "Non é imposíbel construír un cerebro humano e podemos facelo en 10 anos", Henry Markram, director do Blue Brain Project, dixo en 2009 na conferencia TED en Oxford.[84] As interfaces de neuro-silicio propuxéronse como unha estratexia de implementación alternativa que pode escalar mellor.[85]

Hans Moravec abordou os argumentos anteriores ("os cerebros son máis complicados", "as neuronas teñen que modelarse con máis detalle") no seu artigo de 1997 "When will computer hardware match the human brain?" ¿Cando coincidirá o hardware da computadora co cerebro humano?". [81] Mediu a capacidade do software existente para simular a funcionalidade do tecido neural, en concreto da retina. Os seus resultados  non dependen do número de células gliais, nin do tipo de procesamento que as neuronas realizan, nin da súa localización específica no tecido neural.

A complexidade real do modelado de neuronas biolóxicas foi explorada no proxecto OpenWorm que tiña como obxectivo a simulación completa dun verme que ten só 302 neuronas na súa rede neuronal (entre unhas 1000 células en total). A rede neuronal do animal estaba ben documentada antes do inicio do proxecto. Porén, aínda que a tarefa parecía simple ao principio, os modelos baseados nunha rede neuronal xenérica non funcionaron. Actualmente, os esforzos céntranse na emulación precisa de neuronas biolóxicas (en parte a nivel molecular), pero o resultado aínda non pode ser considerado un éxito total.

En 2023, os investigadores realizaron unha exploración de alta resolución do cerebro dun rato.[86]

Críticas aos enfoques baseados na simulación

[editar | editar a fonte]

O modelo de neurona artificial asumido por Kurzweil e usado en moitas implementacións actuais de redes neuronais artificiais é sinxelo en comparación coas neuronas biolóxicas . Probablemente, unha simulación cerebral tería que capturar o comportamento celular detallado das neuronas biolóxicas, que actualmente só se entende a grandes trazos. A sobrecarga introducida pola modelización completa dos detalles biolóxicos, químicos e físicos do comportamento neural (especialmente a escala molecular) requiriría potencias computacionais varias ordes de magnitude maiores que a estimación de Kurzweil. Ademais, as estimacións non teñen en conta as células gliais, que se sabe que desempeñan un papel nos procesos cognitivos.[87]

Unha crítica fundamental ao enfoque do cerebro simulado deriva da teoría da cognición incorporada que afirma que a incorporación humana é un aspecto esencial da intelixencia humana e é necesaria para fundamentar o significado.[88] [89] Se esta teoría é correcta, calquera modelo cerebral totalmente funcional terá que abarcar máis que só as neuronas (por exemplo, un corpo robótico). Goertzel [68] propón a incorporación virtual (como en Second Life) como opción, pero descoñécese se isto sería suficiente.

Perspectiva filosófica

[editar | editar a fonte]

"IA forte" como se define na filosofía

[editar | editar a fonte]

En 1980, o filósofo John Searle acuñou o termo strong AI como parte do seu argumento da sala chinesa.[90] Quería distinguir entre dúas hipóteses diferentes sobre a intelixencia artificial: [f]

  • Hipótese de IA forte: un sistema de intelixencia artificial pode ter "unha mente" e "consciencia".
  • Hipótese da IA feble: un sistema de intelixencia artificial pode (só) actuar como pensa e ten unha mente e unha conciencia.

O primeiro que chamou "forte" porque fai unha afirmación máis contundente : supón que lle pasou algo especial á máquina que vai máis aló desas habilidades que podemos probar. O comportamento dunha máquina de "IA débil" sería precisamente idéntico ao dunha máquina de "IA forte", pero esta última tamén tería experiencia consciente subxectiva. Este uso tamén é común na investigación académica da intelixencia artificial e nos libros de texto.[91]

En contraste con Searle e a IA convencional, algúns futuristas como Ray Kurzweil usan o termo "IA forte" para significar "intelixencia xeral artificial a nivel humano".[67] Isto non é o mesmo que a sala chinesa / IA forte de Searle, a non ser que se asuma que a conciencia é necesaria para AGI a nivel humano. Filósofos académicos como Searle non cren que sexa así, e para a maioría dos investigadores de intelixencia artificial a cuestión está fóra de alcance.[92]

A IA mainstream está máis interesada en como se comporta un programa.[93] Segundo Russell e Norvig, "sempre que o programa funcione, non lles importa se o chamas real ou simulación".[92] Se o programa pode comportarse coma se tivese mente, entón non hai necesidade de saber se realmente ten mente; de feito, non habería forma de dicilo. Para a investigación da IA, a "hipótese débil da IA" de Searle é equivalente á afirmación "a intelixencia xeral artificial é posíbel". Así, segundo Russell e Norvig, "a maioría dos investigadores de IA dan por sentada a hipótese da IA débil e non se preocupan pola hipótese da IA forte".[92] Así, para a investigación académica de IA, "IA forte" e "AGI" son dúas cousas diferentes.

Consciencia, autoconsciencia, sensibilidade

[editar | editar a fonte]

Outros aspectos da mente humana, ademais da intelixencia, son relevantes para o concepto de AGI ou "IA forte", e estes xogan un papel importante na ciencia ficción e na ética da intelixencia artificial :

  • Consciencia : Ter experiencia subxectiva . Thomas Nagel explica que "sente como" algo estar consciente. Se non somos conscientes, entón non parece nada. Nagel usa o exemplo dun morcego: podemos preguntar con sensatez "que se sente ao ser un morcego?" Non obstante, é improbable que nos preguntemos "que se sente ao ser torrador?" Nagel conclúe que un morcego parece estar consciente (é dicir, ten conciencia) pero unha torradeira non.[94]
  • Autoconsciencia: ter conciencia de si mesmo como un individuo separado, especialmente para ser consciente dos propios pensamentos. Isto oponse a simplemente ser o "suxeito do propio pensamento": un sistema operativo ou depurador é capaz de ser "consciente de si mesmo" (é dicir, representarse a si mesmo do mesmo xeito que representa todo o demais) pero isto non é o que a xente normalmente significan cando usan o termo "auto-conciencia" ou en inglés "self-awareness".[g]
  • Sensibilidade: a capacidade de "sentir" percepcións ou emocións de forma subxectiva, en oposición á capacidade de razoar sobre as percepcións ou, no que se refire ás emocións, de ser consciente de que a situación require urxencia, amabilidade ou agresión. Por exemplo, podemos construír unha máquina que saiba que obxectos no seu campo de visión son vermellos, pero esta máquina non saberá necesariamente 'como é o vermello'.

Estes trazos teñen unha dimensión moral, porque unha máquina con esta forma de "IA forte" pode ter dereitos, análogos aos dereitos dos animais non humanos. Realizouse un traballo preliminar para integrar unha IA forte cos marcos legais e sociais existentes, centrándose na posición xurídica e nos dereitos da IA "forte".[96]

Queda por demostrar se é necesaria a " consciencia artificial " para AGI. Non obstante, moitos investigadores de AGI consideran que a investigación que investiga as posibilidades de implementar a conciencia é vital.[97]

Bill Joy, entre outros, argumenta que unha máquina con estes trazos pode ser unha ameaza para a vida ou a dignidade humana.

Retos de investigación

[editar | editar a fonte]

O progreso na intelixencia artificial pasou historicamente por períodos de rápido progreso separados por períodos nos que o progreso parecía deterse.[57] Terminar cada parón foron os avances fundamentais en hardware, software ou ambos para crear espazo para un maior progreso.[57] [98] [99] Por exemplo, o hardware do ordenador dispoñíbel no século XX non era suficiente para implementar a aprendizaxe profunda, o que require un gran número de CPU habilitadas para GPU.[100]

Outro reto é a falta de claridade á hora de definir o que implica a intelixencia. Require consciencia? Debe mostrar a capacidade de establecer obxectivos e de perseguilos? É puramente unha cuestión de escala de tal xeito que se o tamaño dos modelos aumenta o suficiente, xurdirá a intelixencia? Son necesarias facilidades como a planificación, o razoamento e a comprensión causal? A intelixencia require replicar explicitamente o cerebro e as súas facultades específicas? Require emocións? [101]

Beneficios

[editar | editar a fonte]

AGI podería ter unha gran variedade de aplicacións. Se se orienta a tales obxectivos, AGI podería axudar a mitigar diversos problemas no mundo como a fame, a pobreza e os problemas de saúde.[102]

AGI podería mellorar a produtividade e a eficiencia na maioría dos traballos. Por exemplo, na saúde pública, AGI podería acelerar a investigación médica, especialmente contra o cancro.[103] Podería atender aos anciáns[104] e democratizar o acceso a diagnósticos médicos rápidos e de alta calidade. Podería ofrecer unha educación divertida, barata e personalizada.[105] Para practicamente calquera traballo que beneficie á sociedade se se fai ben, probablemente tarde ou cedo sería preferíbel deixalo a unha AGI. A necesidade de traballar para subsistir podería quedar obsoleta se a riqueza producida é redistribuída axeitadamente.[106] Isto tamén suscita a cuestión do lugar dos humanos nunha sociedade radicalmente automatizada.

AGI tamén pode axudar a tomar decisións racionais e a prever e previr desastres. Tamén podería axudar a aproveitar os beneficios de tecnoloxías potencialmente catastróficas como a nanotecnoloxía ou a enxeñaría climática, evitando os riscos asociados.[107] Se o obxectivo principal dunha AGI é previr catástrofes existenciais como a extinción humana (o que podería ser difícil se a Hipótese do Mundo Vulnerable resulta ser certa),[108] podería tomar medidas para reducir drasticamente os riscos [107] mentres minimiza o impacto. destas medidas sobre a nosa calidade de vida.

Ameaza potencial para a existencia humana

[editar | editar a fonte]

A tese de que a IA supón un risco existencial para os humanos, e que este risco necesita unha maior atención, é controvertida pero foi avalada por moitas figuras públicas, entre elas Elon Musk, Bill Gates e Stephen Hawking. Investigadores de IA como Stuart J. Russell, Roman Yampolskiy e Alexey Turchin tamén apoian a tese básica dunha ameaza potencial para a humanidade.[109] [110] [111] Gates afirma que non "entende por que algunhas persoas non están preocupadas", [112] e Hawking criticou a indiferenza xeneralizada no seu editorial de 2014:

Así que, ante posibles futuros de beneficios e riscos incalculables, os expertos seguramente están facendo todo o posible para asegurar o mellor resultado, verdade? Non. Se unha civilización alieníxena superior nos enviase unha mensaxe dicindo, 'Chegaremos nunhas décadas,' responderíamos simplemente, 'OK, chámanos cando chegues — deixaremos as luces acesas?' Probabelmente non — pero isto é máis ou menos o que está a suceder coa IA.[113]

O destino da humanidade ás veces foi comparado co destino dos gorilas ameazados polas actividades humanas. A comparación indica que unha maior intelixencia permitiu á humanidade dominar os gorilas, que agora son vulnerables dun xeito que non poderían ter previsto. Como resultado, o gorila converteuse nunha especie en perigo de extinción, non por malicia, senón simplemente como un dano colateral das actividades humanas.[114]

O escéptico Yann LeCun considera que as AGI non terán ningún desexo de dominar á humanidade e que debemos ter coidado de non antropomorfizalos e interpretar as súas intencións como fariamos para os humanos. Dixo que a xente non será "o suficientemente intelixente como para deseñar máquinas superintelixentes, pero ridículamente estúpida até o punto de darlle obxectivos estúpidos sen garantías".[115] O antigo tsar da fraude (o anterior responsábel principal da loita contra a fraude de Google), Shuman Ghosemajumder, observou que para moitas persoas fóra da industria tecnolóxica, os chatbots e os LLM existentes xa se perciben como se fosen AGI, o que provoca máis malentendidos e medo.[116] LeCun argumentou que os LLM actuais nin sequera son tan intelixentes como os cans.[117] Por outra banda, o concepto de converxencia instrumental suxire que case sexan cales sexan os seus obxectivos, os axentes intelixentes terán motivos para tratar de sobrevivir e adquirir máis poder como pasos intermediarios para acadar estes obxectivos. E que iso non require ter emocións. Nick Bostrom dá o experimento mental do optimizador de clips de papel:[118]

Supoñamos que temos unha IA cuxo único obxectivo é facer o maior número posible de clips de papel. A IA decatarase rapidamente de que sería moito mellor se non houbese humanos, porque os humanos poderían decidir apagala. Porque se os humanos o fan, habería menos clips de papel. Ademais, os corpos humanos conteñen moitos átomos que poderían ser convertidos en clips de papel. O futuro cara ao que a IA trataría de orientarse sería un no que houbese moitos clips de papel pero ningún humano

Unha revisión sistemática de 2021 dos riscos asociados con AGI, aínda que observou a escaseza de datos, atopou as seguintes ameazas potenciais: "A AGI afástase do control dos propietarios/xestores humanos, recibe ou desenvolve obxectivos inseguros, desenvolvemento de AGI e AGI inseguros con mala ética, moral e valores; xestión inadecuada da AGI e riscos existenciais".[119]

Moitos estudosos que están preocupados polo risco existencial defenden a investigación (posibelmente masiva) para resolver o difícil "problema de control " para responder á pregunta: que tipos de salvagardas, algoritmos ou arquitecturas poden implementar os programadores para maximizar a probabilidade de que a súa IA que mellore recursivamente seguir comportándose de forma amistosa, en lugar de destrutiva, despois de alcanzar a superintelixencia?[120] Resolver o problema do control é complicado pola carreira armamentística da IA,[121][122] que case con toda seguridade verá a militarización e armamento de AGI por máis dun Estado-nación, resultando nunha guerra habilitada por AGI, e no caso da IA. desalineamento, guerra dirixida por AGI, potencialmente contra toda a humanidade.[123]

A tese de que a IA pode supoñer un risco existencial tamén ten detractores. Os escépticos ás veces acusan que a tese é cripto-relixiosa, cunha crenza irracional na posibilidade de que a superintelixencia substitúa unha crenza irracional nun Deus omnipotente. Jaron Lanier argumentou en 2014 que a idea de que as máquinas actuais eran de calquera xeito intelixentes é "unha ilusión" e unha "estupendo estafa" por parte dos ricos.

Moitas críticas argumentan que AGI é improbábel a curto prazo. O científico informático Gordon Bell argumenta que a raza humana destruirase a si mesma antes de alcanzar a singularidade tecnolóxica. Gordon Moore, o defensor orixinal da Lei de Moore, declara: "Son un escéptico. Non creo que [unha singularidade tecnolóxica] poida ocorrer, polo menos durante moito tempo. E non sei por que o sinto así".[124] O ex-vicepresidente e científico xefe de Baidu, Andrew Ng, dixo en 2015 que preocuparse polo risco existencial da IA é "como preocuparse pola superpoboación en Marte cando aínda non pisamos o planeta".[125] [126]

En 2023, os directores executivos de Google DeepMind, OpenAI e Anthropic, xunto con outros líderes e investigadores da industria, emitiron unha declaración conxunta na que afirmaban que "mitigar o risco de extinción da IA debería ser unha prioridade global xunto a outros riscos a escala social como as pandemias e guerra nuclear".[127]

Paro masivo

[editar | editar a fonte]

Os investigadores de OpenAI estimaron que "o 80% da forza laboral estadounidense podería ter polo menos o 10% das súas tarefas laborais afectadas pola introdución de LLM, mentres que ao redor do 19% dos traballadores poden ver afectadas polo menos o 50% das súas tarefas".[128] Consideran que os oficinistas son os máis expostos, por exemplo os matemáticos, os contadores ou os deseñadores web.[129] AGI podería ter unha mellor autonomía, capacidade para tomar decisións, para interactuar con outras ferramentas informáticas, pero tamén para controlar corpos robotizados.

Segundo Stephen Hawking, o resultado da automatización sobre a calidade de vida dependerá de como se redistribúa a riqueza:  

Todo o mundo podería gozar dunha vida de ocio luxoso se a riqueza producida polas máquinas fose compartida, ou a maioría das persoas poden acabar sendo miserabelmente pobres se os propietarios das máquinas loitan con éxito contra a redistribución da riqueza. Até agora, a tendencia parece ser cara á segunda opción, coa tecnoloxía impulsando unha desigualdade cada vez maior.

Elon Musk considera que a automatización da sociedade esixirá que os gobernos adopten unha renda básica universal.[130]

  1. "DeepMind and Google: the battle to control artificial intelligence". The Economist. ISSN 0013-0613. Consultado o 2023-12-16. 
  2. 2,0 2,1 Shevlin, Henry; Vold, Karina; Crosby, Matthew; Halina, Marta (2019-10-04). "The limits of machine intelligence: Despite progress in machine intelligence, artificial general intelligence is still a major challenge". EMBO reports (en inglés) 20 (10). ISSN 1469-221X. PMC 6776890. PMID 31531926. doi:10.15252/embr.201949177. 
  3. 3,0 3,1 "Charter". OpenAI (en inglés). 
  4. Roser, Max (2023-10-29). "AI timelines: What do experts in artificial intelligence expect for the future?". Our World in Data. 
  5. "Artificial general intelligence: Are we close, and does it even make sense to try?". MIT Technology Review (en inglés). Consultado o 2023-12-16. 
  6. Morozov, Evgeny (2023-06-30). "Opinion; The True Threat of Artificial Intelligence". The New York Times (en inglés). ISSN 0362-4331. Consultado o 2023-12-16. 
  7. "Impressed by artificial intelligence? Experts say AGI is coming next, and it has 'existential' risks". ABC News (en inglés). 2023-03-23. Consultado o 2023-12-16. 
  8. 8,0 8,1 "AI Timelines". Our World in Data; ourworldindata.org. 
  9. "Artificial general intelligence: Are we close, and does it even make sense to try?". MIT Technology Review (en inglés). Consultado o 2023-12-16. 
  10. "Baum, Seth, A Survey of Artificial General Intelligence Projects for Ethics, Risk, and Policy: Paper 20," (PDF). Wayback Machine; web.archive.org; GCRInstitute.org; Global Catastrophic Risk Institute. Archived from the original on 14 de novembro de 2021. Consultado o 2023-12-16. 
  11. Kurzweil describe a strong AI como "machine intelligence with the full range of human intelligence."
  12. "TEDx Talks - YouTube". www.youtube.com. Consultado o 2023-12-16. 
  13. Newell & Simon 1976.
  14. "What is artificial superintelligence (ASI)?; Definition from TechTarget". Enterprise AI; Techtarget.com (en inglés). Consultado o 2023-12-16. 
  15. "AI Impact". Our World in Data. 
  16. McCarthy, John (2007a). "Preguntas Básicas". Universidade de Stanford. Arquivado dende o orixinal o 26 Outubro 2007. Consultado o 6 de decembro 2007. 
  17. 17,0 17,1 Esta lista de trazos intelixentes está baseada nos temas cubertos polos principais libros de texto de IA, incluíndo: Russell & Norvig 2003, Luger & Stubblefield 2004, Poole, Mackworth & Goebel 1998 e Nilsson 1998.
  18. Johnson 1987
  19. de Charms, R. (1968). Personal causation. Nova York: Academic Press.
  20. 20,0 20,1 Pfeifer, R. and Bongard J. C., How the body shapes the way we think: a new view of intelligence (The MIT Press, 2007). ISBN 0-262-16239-3
  21. Muehlhauser, Luke (2013-08-11). "What is AGI?". Machine Intelligence Research Institute (en inglés). Consultado o 2023-11-23. 
  22. Varanasi, Lakshmi. "GPT-4 can ace the bar, but it only has a decent chance of passing the CFA exams. Here's a list of difficult exams the ChatGPT and GPT-4 have passed.". Business Insider (en inglés). Consultado o 2023-12-16. 
  23. "6 Jobs Artificial Intelligence Is Already Replacing and How Investors Can Capitalize on It". www.yahoo.com (en inglés). 2023-02-07. Consultado o 2023-12-16. 
  24. Stuart C. Shapiro, ed. (1992). Artificial Intelligence. pp. 54–57.  (Section 4 is on "AI-Complete Tasks".)
  25. Xin-She Yang, ed. (2012). "Turing Test as a Defining Feature of AI-Completeness" (PDF): 3–17. 
  26. Crevier 1993, p. 48–50
  27. "Artificial Intelligence, Business and Civilization: Our Fate Made in Machines". Routledge & CRC Press (en inglés). Consultado o 2023-12-16. 
  28. Simon 1965, p. 96 citado en Crevier 1993, p. 109
  29. "e-book; HAL; Capítulo 2". mitpress.mit.edu. Arquivado dende o orixinal o 16 de xullo de 2012. Consultado o 16 de decembro de 2023. 
  30. Marvin Minsky en Darrach (1970), citado en Crevier (1993).
  31. Lighthill 1973; Howe 1994
  32. NRC 1999, "Cambio a Investigación Aplicada Aumenta a Inversión".
  33. Crevier 1993, pp. 115–117; Russell & Norvig 2003, pp. 21–22.
  34. Crevier 1993, p. 211, Russell & Norvig 2003, p. 24 e véxase tamén Feigenbaum & McCorduck 1983
  35. NRC 1999.
  36. Crevier 1993, p. 161–162,197–203,240; Russell & Norvig 2003, p. 25.
  37. Crevier 1993, p. 209–212
  38. McCarthy, John (2000). "Resposta a Lighthill". Universidade de Stanford. Arquivado dende o orixinal o 30 de setembro de 2008. Consultado o 29 Setembro 2007. 
  39. Markoff, John (2005-10-14). "Behind Artificial Intelligence, a Squadron of Bright Real People". The New York Times (en inglés). ISSN 0362-4331. Consultado o 2023-12-16. 
  40. Russell & Norvig 2003, p. 25–26
  41. "Three Factors Weighing on Growth Rates in 2023". Gartner (en inglés). Consultado o 2023-12-16. 
  42. 42,0 42,1 Moravec 1988, p. 20
  43. Harnad, Stevan (1990-06-01). "The symbol grounding problem". Physica D: Nonlinear Phenomena 42 (1): 335–346. ISSN 0167-2789. doi:10.1016/0167-2789(90)90087-6. 
  44. Gubrud 1997
  45. Hutter, Marcus (2005). "Universal Artificial Intellegence". Texts in Theoretical Computer Science An EATCS Series (en inglés). ISSN 1862-4499. doi:10.1007/b138233. 
  46. "Machine_Super_Intelligence" (PDF). web.archive.org; Wayback Machine. Archived from the original on 15 de xuño de 2022. Consultado o 2023-12-12. 
  47. Goertzel, Ben; Orseau, Laurent; Snaider, Javier, eds. (2014). "Artificial General Intelligence". Lecture Notes in Computer Science (en inglés). ISSN 0302-9743. doi:10.1007/978-3-319-09274-4. 
  48. Vía Life 3.0: 'The term "AGI" was popularized by... Shane Legg, Mark Gubrud and Ben Goertzel'; Goertzel.org; "Who coined the term AGI?"
  49. Wang & Goertzel 2007
  50. "AGI Summer School 2009". goertzel.org. Arquivado dende o orixinal o 28 de setembro de 2020. Consultado o 16 de decembro de 2023. 
  51. "Факултет по математика и информатика - Избираеми дисциплини 2009/2010 - пролетен триместър". fmi-plovdiv.org (en búlgaro). Consultado o 2023-12-16. 
  52. "Факултет по математика и информатика - Избираеми дисциплини 2010/2011 - зимен триместър". fmi.uni-plovdiv.bg. Consultado o 2023-12-16. 
  53. Minecraft, co seu mundo virtual rico e complexo, ofrece un entorno ideal para investigar e experimentar con algoritmos de IA, especialmente aqueles relacionados coa aprendizaxe autónoma e a solución creativa de problemas. En Minecraft, os sistemas de IA poden ser postos a proba nunha variedade de escenarios que requiran navegación, recoñecemento de patróns, toma de decisións e outras habilidades cognitivas. Isto convérteo nunha ferramenta valiosa para os investigadores que buscan desenvolver e mellorar modelos de IA que poidan aprender e adaptarse de maneira similar aos humanos.
  54. Hutter, Marcus (2005). "Universal Artificial Intellegence". Texts in Theoretical Computer Science An EATCS Series (en inglés). ISSN 1862-4499. doi:10.1007/b138233. 
  55. "Paul Allen: The singularity isn't near". technologyreview.com. 
  56. "Artificial intelligence will not turn into a Frankenstein's monster". The Observer (en inglés). 2014-08-09. ISSN 0029-7712. Consultado o 2023-12-16. 
  57. 57,0 57,1 57,2 Clocksin 2003.
  58. Fjelland, Ragnar (2020-06-17). "Why general artificial intelligence will not be realized". Humanities and Social Sciences Communications (en inglés) 7 (1): 1–9. ISSN 2662-9992. doi:10.1057/s41599-020-0494-4. 
  59. McCarthy 2007.
  60. Nast, Condé (2015-11-16). "The Doomsday Invention". The New Yorker (en inglés). Consultado o 2023-12-16. 
  61. Müller, V. C., & Bostrom, N. (2016). Future progress in artificial intelligence: A survey of expert opinion. In Fundamental issues of artificial intelligence (pp. 555–572). Springer, Cham.
  62. Armstrong, Stuart, e Kaj Sotala. 2012. “How We’re Predicting AI—or Failing To.” en Beyond AI: Artificial Dreams, editado por Jan Romportl, Pavel Ircing, Eva Zackova, Michal Polak, e Radek Schuster, 52–75. Pilsen: University of West Bohemia
  63. Xiang, Chloe (2023-03-24). "Microsoft Now Claims GPT-4 Shows 'Sparks' of General Intelligence". Vice (en inglés). Consultado o 2023-12-16. 
  64. News, Neuroscience (2023-07-06). "AI Outperforms Humans in Creativity Test". Neuroscience News (en inglés). Consultado o 2023-12-16. 
  65. Guzik, Erik E.; Byrge, Christian; Gilde, Christian (2023-12-01). "The originality of machines: AI takes the Torrance Test". Journal of Creativity 33 (3): 100065. ISSN 2713-3745. doi:10.1016/j.yjoc.2023.100065. 
  66. Goertzel & Pennachin 2006.
  67. 67,0 67,1 67,2 (Kurzweil 2005, p. 260)
  68. 68,0 68,1 68,2 Goertzel 2007.
  69. "Error in Armstrong and Sotala 2012". AI Impacts (en inglés). 2016-05-17. Consultado o 2023-12-16. 
  70. Butz, Martin V. (2021-03-01). "Towards Strong AI". KI - Künstliche Intelligenz (en inglés) 35 (1): 91–101. ISSN 1610-1987. doi:10.1007/s13218-021-00705-x. 
  71. Liu, Feng; Shi, Yong; Liu, Ying (2017-06-01). "Intelligence Quotient and Intelligence Grade of Artificial Intelligence". Annals of Data Science (en inglés) 4 (2): 179–191. ISSN 2198-5812. doi:10.1007/s40745-017-0109-0. 
  72. "Google-KI doppelt so schlau wie Siri – aber ein Sechsjähriger schlägt beide". t3n Magazin (en alemán). 2017-10-05. Consultado o 2023-12-16. 
  73. Edelman, Gary Grossman (2020-09-03). "We’re entering the AI twilight zone between narrow and general AI". VentureBeat (en inglés). Consultado o 2023-12-16. 
  74. Quach, Katyanna. "A developer built an AI chatbot using GPT-3 that helped a man speak again to his late fiancée. OpenAI shut it down". www.theregister.com (en inglés). Consultado o 2023-12-16. 
  75. 75,0 75,1 Potts, Brenda (2023-03-23). "AI Explainer". Microsoft Research (en inglés). Consultado o 2023-12-16. 
  76. "Whole Brain Emulation: A Giant Step for Neuroscience". Tech Brew (en inglés). Consultado o 2023-12-12. 
  77. Sandberg & Boström 2008.
  78. Drachman 2005.
  79. 79,0 79,1 Russell & Norvig 2003.
  80. Moravec 1988.
  81. 81,0 81,1 Moravec 1998.
  82. Izhikevich, Eugene M.; Edelman, Gerald M. (2008-03-04). "Large-scale model of mammalian thalamocortical systems". Proceedings of the National Academy of Sciences (en inglés) 105 (9): 3593–3598. ISSN 0027-8424. PMC 2265160. PMID 18292226. doi:10.1073/pnas.0712231105. 
  83. "Blue Brain Project". EPFL (en inglés). Consultado o 2023-12-16. 
  84. "Artificial brain '10 years away'" (en inglés). 2009-07-22. Consultado o 2023-12-16. 
  85. "Brain cells fused with computer chips". NBC News (en inglés). 2006-03-27. Consultado o 2023-12-16. 
  86. Thornton, Angela (2023-06-26). "How uploading our minds to a computer might become possible". The Conversation (en inglés). Consultado o 2023-12-12. 
  87. http://discovermagazine.com/2011/jan-feb/62 (Xaneiro-febreiro de 2011). "jan-feb;62". 
  88. de Vega, Glenberg & Graesser 2008. "A wide range of views in current research, all of which require grounding to some degree"
  89. Thornton, Angela (2023-06-26). "How uploading our minds to a computer might become possible". The Conversation (en inglés). Consultado o 2023-12-16. 
  90. Searle 1980; Researchgate.net; On brains as computers
  91. Por exemplo: John Searle’S Argument On Strong Artificial Intelligence Argumentative And Thesis Essay - PHDessay.com
  92. 92,0 92,1 92,2 Russell & Norvig 2003, p. 947.
  93. Aínda que vexa a Intelixencia Artificial Explicable (Explainable artificial intelligence) para a curiosidade do campo sobre por que un programa se comporta do xeito que o fai
  94. Nagel 1974.
  95. Turing 1950.
  96. Sotala, Kaj; Yampolskiy, Roman V (2014-12-19). "Responses to catastrophic AGI risk: a survey". Physica Scripta 90 (1): 018001. ISSN 0031-8949. doi:10.1088/0031-8949/90/1/018001. 
  97. Yudkowsky 2006.
  98. "The Why, What, and How of Artificial General Intelligence Chip Development ; IEEE Journals & Magazine ; IEEE Xplore". ieeexplore.ieee.org. doi:10.1109/tcds.2021.3069871. Consultado o 2023-12-16. 
  99. Pei, Jing; Deng, Lei; Song, Sen; Zhao, Mingguo; Zhang, Youhui; Wu, Shuang; Wang, Guanrui; Zou, Zhe; Wu, Zhenzhi (2019-08). "Towards artificial general intelligence with hybrid Tianjic chip architecture". Nature (en inglés) 572 (7767): 106–111. ISSN 1476-4687. doi:10.1038/s41586-019-1424-8. 
  100. Pandey, Mohit; Fernandez, Michael; Gentile, Francesco; Isayev, Olexandr; Tropsha, Alexander; Stern, Abraham C.; Cherkasov, Artem (2022-03). "The transformational role of GPU computing and deep learning in drug discovery". Nature Machine Intelligence (en inglés) 4 (3): 211–221. ISSN 2522-5839. doi:10.1038/s42256-022-00463-x. 
  101. Deane, George (2022). "Machines That Feel and Think: The Role of Affective Feelings and Mental Action in (Artificial) General Intelligence". Artificial Life 28 (3): 289–309. ISSN 1064-5462. doi:10.1162/artl_a_00368. 
  102. Says, Admin (2021-08-23). "Artificial General Intelligence – Do the cost outweigh benefits?" (en inglés). Arquivado dende o orixinal o 26 de agosto de 2021. Consultado o 2023-12-16. 
  103. "How We Can Benefit From Advancing Artificial General Intelligence (AGI) - Unite.AI". www.unite.ai. Consultado o 2023-12-16. 
  104. Magazine, Smithsonian; Talty, Jules Julien,Stephan. "What Will Our Society Look Like When Artificial Intelligence Is Everywhere?". Smithsonian Magazine (en inglés). Consultado o 2023-12-16. 
  105. Fjelland, Ragnar (2020-06-17). "Why general artificial intelligence will not be realized". Humanities and Social Sciences Communications (en inglés) 7 (1): 1–9. ISSN 2662-9992. doi:10.1057/s41599-020-0494-4. 
  106. Fjelland, Ragnar (2020-06-17). "Why general artificial intelligence will not be realized". Humanities and Social Sciences Communications (en inglés) 7 (1): 1–9. ISSN 2662-9992. doi:10.1057/s41599-020-0494-4. 
  107. 107,0 107,1 Bostrom, Nick (2017). "§ Preferred order of arrival". Superintelligence: paths, dangers, strategies (Reprinted with corrections 2017 ed.) (en inglés). Oxford University Press. ISBN 978-0-19-967811-2. 
  108. Piper, Kelsey (2018-11-19). "How technological progress is making it likelier than ever that humans will destroy ourselves". Vox (en inglés). Consultado o 2023-12-16. 
  109. Müller, Vincent C. (2014-07-03). "Risks of general artificial intelligence". Journal of Experimental & Theoretical Artificial Intelligence (en inglés) 26 (3): 297–301. ISSN 0952-813X. doi:10.1080/0952813X.2014.895110. 
  110. Sotala, Kaj; Yampolskiy, Roman V. (2014-12). "Responses to catastrophic AGI risk: a survey". Physica Scripta (en inglés) 90 (1): 018001. ISSN 1402-4896. doi:10.1088/0031-8949/90/1/018001. 
  111. Turchin, Alexey (2019-03-01). "Assessing the future plausibility of catastrophically dangerous AI". Futures 107: 45–58. ISSN 0016-3287. doi:10.1016/j.futures.2018.11.007. 
  112. "Microsoft's Bill Gates insists AI is a threat". BBC News (en inglés). 2015-01-29. Consultado o 2023-12-16. 
  113. "Stephen Hawking: 'Transcendence looks at the implications of artificial intelligence – but are we taking AI seriously enough?'". The Independent (UK). Arquivado dende o orixinal o 25 September 2015. Consultado o 3 de decembro de 2014. 
  114. Herger, Mario. "The Gorilla Problem – Enterprise Garage" (en inglés). Consultado o 2023-12-16. 
  115. "The fascinating Facebook debate between Yann LeCun, Stuart Russel and Yoshua Bengio about the risks of strong AI". The fascinating Facebook debate between Yann LeCun, Stuart Russel and Yoshua Bengio about the risks of strong AI (en francés). Consultado o 2023-12-16. 
  116. "Humanity, Security & AI, Oh My! (with Ian Bremmer & Shuman Ghosemajumder)". CAFE (en inglés). 2023-07-20. Consultado o 2023-12-16. 
  117. "LLMs aren't even as smart as dogs, says Meta's AI chief scientist". ZDNET (en inglés). Consultado o 2023-12-16. 
  118. "Will Artificial Intelligence Doom The Human Race Within The Next 100 Years?". HuffPost (en inglés). 2014-08-22. Consultado o 2023-12-16. 
  119. McLean, Scott; Read, Gemma J. M.; Thompson, Jason; Baber, Chris; Stanton, Neville A.; Salmon, Paul M. (2023-07-04). "The risks associated with Artificial General Intelligence: A systematic review". Journal of Experimental & Theoretical Artificial Intelligence (en inglés) 35 (5): 649–663. ISSN 0952-813X. doi:10.1080/0952813X.2021.1964003. 
  120. Bostrom, Nick. Superintelligence: Paths, Dangers, Strategies (First ed.). Oxford University Press. ISBN 978-0199678112. 
  121. Naudé, Wim; Dimitri, Nicola (2020-06-01). "The race for an artificial general intelligence: implications for public policy". AI & SOCIETY (en inglés) 35 (2): 367–379. ISSN 1435-5655. doi:10.1007/s00146-019-00887-x. 
  122. Torres, Phil (2019-05-04). "The possibility and risks of artificial general intelligence". Bulletin of the Atomic Scientists (en inglés) 75 (3): 105–108. ISSN 0096-3402. doi:10.1080/00963402.2019.1604873. 
  123. Carayannis, Elias G.; Draper, John (2022-01-11). "Optimising peace through a Universal Global Peace Treaty to constrain the risk of war from a militarised artificial superintelligence". AI & SOCIETY (en inglés). ISSN 1435-5655. PMC 8748529. PMID 35035113. doi:10.1007/s00146-021-01382-y. 
  124. "Tech Luminaries Address Singularity - IEEE Spectrum". spectrum.ieee.org (en inglés). Consultado o 2023-12-16. 
  125. Shermer, Michael (2017-03-01). "Artificial Intelligence Is Not a Threat--Yet". Scientific American (en inglés). doi:10.1038/scientificamerican0317-77. Consultado o 2023-12-16. 
  126. "AGI Expert Peter Voss Says AI Alignment Problem is Bogus". NextBigFuture.com (en inglés). 2023-04-04. Consultado o 2023-12-16. 
  127. "Statement on AI Risk; CAIS". www.safe.ai (en inglés). Consultado o 2023-12-16. 
  128. "GPTs are GPTs: An early look at the labor market impact potential of large language models". openai.com (en inglés). Consultado o 2023-12-16. 
  129. "80% of workers will be exposed to AI. These jobs will be most affected". euronews (en inglés). 2023-03-23. Consultado o 2023-12-16. 
  130. Sheffey, Ayelet. "Elon Musk says we need universal basic income because 'in the future, physical work will be a choice'". Business Insider (en inglés). Consultado o 2023-12-16. 

Referencias

[editar | editar a fonte]
  1. Véxase a orixe do termo "IA forte" e a definición académica de "IA forte" e IA débil no artigo Sala chinesa.
  2. O fundador da IA John McCarthy escribe: "aínda non podemos caracterizar en xeral que tipos de procedementos computacionais queremos chamar intelixentes".[16] (Para unha discusión de algunhas definicións de intelixencia utilizadas por investigadores en intelixencia artificial, véxase filosofía da intelixencia artificial, ou o artigo da Wikipedia en inglés 'philosophy of artificial intelligence'.)
  3. O Informe Lighthill criticou especificamente os "obxectivos grandiosos" da IA e levou ao desmantelamento da investigación en IA en Inglaterra.[31] Nos EUA, DARPA decidiu financiar só "investigación directa orientada a misións, en lugar de investigación básica sen dirección".[32][33]
  4. Como escribe o fundador da IA John McCarthy, "sería un gran alivio para o resto dos traballadores en IA se os inventores de novos formalismos xerais expresaran as súas esperanzas nunha forma máis cautelosa do que ás veces foi o caso".[38]
  5. En "Mind Children"[80] úsase 1015 cps. Máis recentemente, en 1997,[81] Moravec argumentou a favor de 108 MIPS, o que correspondería aproximadamente a 1014 cps. Moravec fala en termos de MIPS, non de "cps", que é un termo non estándar introducido por Kurzweil.
  6. Como se define nun libro de texto estándar de IA: 'A afirmación de que as máquinas poderían actuar de maneira intelixente (ou, talvez mellor, actuar como se fosen intelixentes) é chamada a hipótese da 'IA débil' polos filósofos, e a afirmación de que as máquinas que o fan están realmente pensando (en lugar de simular o pensamento) é chamada a hipótese da 'IA forte'."[79]
  7. Alan Turing presentou este punto en 1950.[95]

Véxase tamén

[editar | editar a fonte]

  

Bibliografía

[editar | editar a fonte]
  • Cukier, Kenneth, "Ready for Robots? How to Think about the Future of AI", Foreign Affairs, vol. 98, nº. 4 (xullo/agosto 2019), pp. 192–98. George Dyson, historiador da informática, escribe (no que se podería chamar "Lei de Dyson") que "Calquera sistema o suficientemente sinxelo como para ser comprensíbel non será o suficientemente complicado como para comportarse de forma intelixente, mentres que calquera sistema o suficientemente complicado como para comportarse de forma intelixente será demasiado complicado para entender". (páx. 197.) O científico informático Alex Pentland escribe: "Os algoritmos actuais de aprendizaxe automática da IA son, no seu núcleo, un simple estúpido. Funcionan, pero funcionan pola forza bruta". (páx. 198.)
  • Domingos, Pedro, "Our Digital Doubles: AI will serve our species, not control it", Scientific American, vol. 319, núm. 3 (setembro 2018), pp. 88–93. "As IA son como sabios autistas e seguirán sendo así no futuro previsíbel... As IA carecen de sentido común e poden facilmente cometer erros que un humano nunca faría... Tamén son susceptíbeis de tomar as nosas instrucións demasiado literalmente, dándonos exactamente o que pedimos en lugar do que realmente queriamos". (páx. 93.)
  • Hughes-Castleberry, Kenna, "A Murder Mystery Puzzle: The literary puzzle Cain's Jawbone, que sorprendeu aos humanos durante décadas, revela as limitacións dos algoritmos de procesamento da linguaxe natural", Scientific American, vol. 329, núm. 4 (novembro de 2023), páxs. 81–82. "Este concurso de misterio de asasinatos revelou que aínda que os modelos de PNL (procesamento da linguaxe natural) son capaces de facer incríbeis proezas, as súas habilidades están moi limitadas pola cantidade de contexto que reciben. Isto [...] podería causar [dificultades] aos investigadores. que esperan usalos para facer cousas como analizar linguas antigas. Nalgúns casos, hai poucos rexistros históricos sobre civilizacións desaparecidas que sirvan como datos de adestramento para tal fin". (páx. 82.)
  • Marcus, Gary, "Am I human?: Os investigadores necesitan novas formas de distinguir a intelixencia artificial do tipo natural", Scientific American, vol. 316, núm. 3 (marzo 2017), pp. 61-63. Marcus sinala un obstáculo até agora insuperábel para a intelixencia artificial: unha incapacidade para unha desambiguación fiable. "Virtualmente todas as frases [que as persoas xeran] son ambiguas, moitas veces de varias maneiras. O noso cerebro é tan bo para comprender a linguaxe que non adoitamos notar". Un exemplo destacado é o "problema de desambiguación do pronome" ("PDP"): unha máquina non ten forma de determinar a quen ou a que se refire un pronome nunha oración, como "el", "ela" ou "ela".
  • Marcus, Gary, "AI's IQ: ChatGPT aced a [standard intelligence] test but showed that intelligence cannot be measured by IQ alone""; "Artificial Confidence: Even the newest, buzziest systems of artificial general intelligence are stymmied by the same old problems", Scientific American, vol. 327, núm. 4 (outubro 2022), pp. 42–45.
  • Roivainen, Eka, "O coeficiente intelectual da IA: ChatGPT superou unha proba [intelixencia estándar] pero mostrou que a intelixencia non se pode medir só co coeficiente intelectual", Scientific American, vol. 329, núm. 1 (xullo/agosto 2023), p. 7. "A pesar do seu alto coeficiente intelectual, ChatGPT falla en tarefas que requiren un razoamento humano real ou unha comprensión do mundo físico e social... ChatGPT parecía incapaz de razoar de forma lóxica e intentou confiar na súa ampla base de datos de... feitos derivados de textos online".

Ligazóns externas

[editar | editar a fonte]