historia de la inteligencia artificial
|

Historia de la inteligencia artificial: origen, evolución y presente de la tecnología que está transformando el mundo

La historia de la inteligencia artificial es una de las narrativas más apasionantes de la ciencia y la tecnología contemporáneas. Lo que hoy conocemos como IA, capaz de generar texto, crear imágenes, asistir en diagnósticos médicos, analizar datos complejos o automatizar decisiones, no apareció de forma repentina. Es el resultado de una evolución larga, irregular y profundamente ligada al desarrollo de las matemáticas, la lógica, la computación y la propia ambición humana de comprender la inteligencia.

En la actualidad, la inteligencia artificial está en todas partes. Se encuentra en los motores de búsqueda, en los asistentes virtuales, en los sistemas de recomendación, en la industria, en la medicina, en el comercio electrónico y en la generación de contenido digital. Sin embargo, para entender su alcance real, es fundamental conocer su pasado. Solo así podemos comprender cómo se construyó esta disciplina, por qué atravesó etapas de entusiasmo y decepción, y por qué hoy se ha convertido en uno de los motores tecnológicos más influyentes del siglo XXI.

A lo largo de este artículo vamos a recorrer de forma detallada el origen de la inteligencia artificial, sus antecedentes filosóficos, su nacimiento oficial como campo científico, sus principales hitos históricos, sus etapas de crisis, el auge del machine learning, la revolución del deep learning y el surgimiento de la IA generativa. También veremos cuáles son los desafíos éticos, sociales y económicos que acompañan a esta tecnología en el presente.

¿Qué es la inteligencia artificial?

Antes de profundizar en la historia de la inteligencia artificial y su evolución, conviene aclarar qué es exactamente la inteligencia artificial. En términos generales, se trata de una rama de la informática cuyo objetivo es desarrollar sistemas capaces de realizar tareas que normalmente asociamos con la inteligencia humana. Entre ellas destacan el aprendizaje, el razonamiento, la resolución de problemas, la comprensión del lenguaje, la planificación, la percepción visual y la toma de decisiones.

La definición de inteligencia artificial ha cambiado con el tiempo. En sus primeras etapas, el campo estaba muy centrado en la idea de que pensar consistía en manipular símbolos y aplicar reglas lógicas. Más tarde, el enfoque se desplazó hacia sistemas capaces de aprender a partir de datos. Hoy, cuando hablamos de IA, solemos incluir disciplinas como el aprendizaje automático, el aprendizaje profundo, el procesamiento del lenguaje natural, la visión por computador y la IA generativa.

Este cambio de enfoque es importante porque explica por qué la historia de la IA no ha sido lineal. No se trata de una sola tecnología, sino de un conjunto de paradigmas que han ido cambiando conforme evolucionaban la ciencia, el hardware, el acceso a datos y las necesidades del mundo real.

Los antecedentes filosóficos de la inteligencia artificial

Aunque la inteligencia artificial como disciplina nació en el siglo XX, sus raíces son mucho más antiguas. La idea de que el pensamiento puede describirse mediante reglas y procesos formales viene de la filosofía clásica. Ya en la Antigua Grecia, Aristóteles desarrolló sistemas de lógica que buscaban representar el razonamiento de forma estructurada. Esa intuición, aunque lejana en el tiempo, fue uno de los primeros pasos hacia la posibilidad de formalizar la inteligencia.

Siglos más tarde, durante la Edad Moderna, filósofos como René Descartes, Thomas Hobbes y Gottfried Wilhelm Leibniz exploraron la idea de que el pensamiento humano podía entenderse como una especie de cálculo. Leibniz, en particular, imaginó una lógica universal con la que se podrían resolver disputas racionales a través de reglas y operaciones. Su visión fue extraordinariamente adelantada para su época y puede considerarse una inspiración remota de la IA.

En el siglo XIX, la relación entre lógica, cálculo y máquinas se hizo todavía más evidente. George Boole desarrolló el álgebra booleana, una herramienta esencial para la lógica computacional. Charles Babbage diseñó la máquina analítica, y Ada Lovelace comprendió que una máquina podía manipular símbolos, no solo números. Esa idea fue revolucionaria, porque anticipaba la posibilidad de que los ordenadores trabajaran con información abstracta, base de la inteligencia artificial moderna.

Matemáticas, lógica y computabilidad en el siglo XX

El verdadero terreno técnico de la inteligencia artificial comenzó a consolidarse en el siglo XX con el desarrollo de la lógica matemática y la teoría de la computación. Investigadores como Bertrand Russell, Alfred North Whitehead, Kurt Gödel, Alonzo Church y Alan Turing plantearon preguntas fundamentales sobre qué problemas pueden resolverse de manera formal y qué significa, exactamente, computar.

Alan Turing fue una figura decisiva. Su modelo teórico de máquina universal mostró que un sistema suficientemente general podía ejecutar cualquier procedimiento formalizable. Esto tuvo implicaciones inmensas para el futuro de la computación y también para la inteligencia artificial. Si pensar implicaba seguir ciertas reglas, entonces una máquina podría, en principio, realizar parte de ese proceso.

La Segunda Guerra Mundial también aceleró el desarrollo de sistemas de cómputo. Las necesidades militares, el descifrado de códigos y el procesamiento rápido de información impulsaron la creación de máquinas cada vez más potentes. En ese contexto, la idea de una máquina capaz de imitar capacidades humanas dejó de ser mera especulación filosófica y pasó a convertirse en un objetivo científico plausible.

Alan Turing y la gran pregunta: ¿pueden pensar las máquinas?

En 1950, Alan Turing publicó uno de los textos más influyentes de la historia de la tecnología: Computing Machinery and Intelligence. En él propuso una nueva forma de abordar el problema de la inteligencia artificial. En lugar de intentar definir filosóficamente qué es pensar, Turing planteó una prueba práctica basada en la conversación: si una máquina podía responder de forma indistinguible de un ser humano, entonces tenía sentido considerarla inteligente.

Ese planteamiento, conocido como test de Turing, no resolvía todas las preguntas filosóficas, pero sí tuvo un enorme valor metodológico. Cambió el debate abstracto por un criterio observable y abrió el camino para investigar cómo construir sistemas capaces de simular comportamientos humanos complejos.

El legado de Turing en la historia de la inteligencia artificial es inmenso. No solo formuló una pregunta crucial, sino que ayudó a establecer el marco teórico que hizo posible la computación moderna. Por eso, cuando se habla del origen de la IA, su nombre aparece inevitablemente entre los grandes pioneros.

Alan Turing, pionero en la historia de la inteligencia artificial
By Elliott & Fry – https://www.computerhistory.org/timeline/1949/, Public Domain, https://commons.wikimedia.org/w/index.php?curid=152236331

1956: el nacimiento oficial de la inteligencia artificial

La fecha que suele marcar el nacimiento formal de la inteligencia artificial es 1956, año en que tuvo lugar la famosa Conferencia de Dartmouth. Allí, un grupo de investigadores, entre ellos John McCarthy, Marvin Minsky, Claude Shannon y Herbert Simon, utilizó por primera vez el término Artificial Intelligence para describir un nuevo campo de estudio.

La propuesta era extremadamente ambiciosa. Los participantes creían que muchos aspectos del aprendizaje y la inteligencia podían describirse con tanta precisión que sería posible construir máquinas capaces de simularlos. En ese momento predominaba un fuerte optimismo. Se pensaba que el desarrollo de máquinas inteligentes avanzaría con rapidez y que en pocas décadas podrían resolverse problemas que hoy sabemos son enormemente complejos.

A partir de Dartmouth, la inteligencia artificial comenzó a consolidarse como disciplina científica. Se abrieron laboratorios, se atrajo financiación y se desarrollaron los primeros programas capaces de resolver teoremas, jugar juegos simples o manipular símbolos conforme a reglas lógicas.

Los primeros programas de IA y el enfoque simbólico

Durante sus primeros años, la inteligencia artificial se desarrolló principalmente bajo un enfoque simbólico. La idea era que la inteligencia consistía en representar conocimiento mediante símbolos y manipularlos aplicando reglas explícitas. Si se lograba traducir el mundo a una estructura formal, una máquina podría razonar sobre él.

Uno de los primeros ejemplos fue Logic Theorist, creado por Allen Newell y Herbert Simon. Este sistema era capaz de demostrar ciertos teoremas matemáticos, lo que generó un gran entusiasmo. Poco después llegó General Problem Solver, un intento de diseñar un sistema más general de resolución de problemas.

Estos programas mostraron que una máquina podía realizar tareas antes asociadas al razonamiento humano. Aunque estaban muy lejos de una inteligencia general, representaron avances notables para la época. También ayudaron a instalar la idea de que el pensamiento podía modelarse computacionalmente.

Sin embargo, el enfoque simbólico tenía límites importantes. Funcionaba bien en problemas cerrados y estructurados, pero se complicaba mucho en entornos ambiguos o cambiantes. Aun así, durante los años 50 y 60 fue el paradigma dominante.

Los años 60: expansión, optimismo y experimentación

La década de 1960 fue una etapa de entusiasmo creciente para la inteligencia artificial. Diversos laboratorios universitarios y centros de investigación desarrollaron proyectos en áreas como el lenguaje natural, la robótica, la visión artificial y la resolución automatizada de problemas.

Uno de los sistemas más recordados de este periodo fue ELIZA, creado por Joseph Weizenbaum en 1966. ELIZA simulaba una conversación aplicando reglas simples de reformulación de frases. Aunque hoy puede parecer muy rudimentario, en su momento provocó asombro porque demostraba que una máquina podía sostener un diálogo aparentemente coherente.

También surgieron desarrollos importantes en robótica. El caso más conocido es Shakey, considerado uno de los primeros robots capaces de combinar percepción del entorno, razonamiento y acción física. Aunque su funcionamiento era lento y muy limitado comparado con la tecnología actual, abrió una nueva línea de trabajo en IA integrada con sensores y movimiento.

En estos años, muchos investigadores creían que la inteligencia artificial estaba cerca de resolver problemas enormes en poco tiempo. Sin embargo, a medida que avanzaban los experimentos, comenzó a quedar claro que comprender el lenguaje, interpretar imágenes o razonar con sentido común era muchísimo más difícil de lo que se había imaginado.

Los años 70 y el primer invierno de la inteligencia artificial

El exceso de optimismo de las primeras décadas chocó pronto con la realidad. Muchos de los problemas que parecían asequibles resultaron extraordinariamente complejos. Los sistemas funcionaban en condiciones controladas, pero fallaban cuando debían enfrentarse a la ambigüedad del mundo real.

La comprensión del lenguaje natural, por ejemplo, resultó estar llena de matices, contexto y significados implícitos que eran difíciles de codificar mediante reglas. La visión por computador también presentó enormes obstáculos, al igual que el razonamiento de sentido común. Además, la capacidad computacional disponible en aquella época era insuficiente para sostener muchas de las aspiraciones del campo.

Todo esto provocó una pérdida de confianza entre financiadores, instituciones y gobiernos. En el Reino Unido, el Informe Lighthill criticó duramente el estado de la IA, y en Estados Unidos también se redujo el apoyo a muchos proyectos. Ese periodo de recorte de expectativas e inversión es conocido como el primer invierno de la inteligencia artificial.

Lejos de ser un simple paréntesis, este invierno obligó a la disciplina a madurar. Mostró que la inteligencia humana no podía replicarse tan fácilmente y que el progreso requería enfoques más sólidos, menos grandilocuentes y más adaptados a los límites reales de la computación.

Los años 80 y el auge de los sistemas expertos

Tras el primer invierno, la inteligencia artificial regresó con un enfoque más práctico y específico: los sistemas expertos. En lugar de aspirar a una inteligencia general, estos sistemas se diseñaban para resolver problemas concretos en dominios donde el conocimiento especializado podía representarse mediante reglas.

Los sistemas expertos se basaban en una base de conocimientos construida a partir de la experiencia de profesionales humanos. Un motor de inferencia aplicaba esas reglas para emitir diagnósticos, recomendaciones o clasificaciones. Uno de los ejemplos más famosos fue MYCIN, un sistema diseñado para ayudar a diagnosticar infecciones bacterianas y recomendar tratamientos.

Durante un tiempo, los sistemas expertos generaron una auténtica ola de interés empresarial. Muchas compañías invirtieron en ellos para mejorar procesos industriales, asistencia técnica, análisis financiero y soporte a decisiones. Parecía que la IA estaba encontrando por fin un camino comercial viable.

Pero este modelo también mostró limitaciones. Crear y mantener bases de conocimiento era caro, lento y poco flexible. Además, estos sistemas no aprendían por sí mismos. Dependían de reglas introducidas manualmente y tendían a romperse si el problema se salía del dominio previsto. A finales de los 80, el entusiasmo volvió a enfriarse.

El segundo invierno de la inteligencia artificial

La caída de las expectativas sobre los sistemas expertos y el colapso de ciertos mercados especializados condujeron a un segundo invierno de la IA. Muchas empresas abandonaron proyectos, la inversión se redujo y parte de la comunidad científica reconsideró los supuestos dominantes del campo.

Sin embargo, este periodo de aparente retroceso también fue importante. En lugar de insistir únicamente en representar conocimiento mediante reglas, la investigación comenzó a orientarse con más fuerza hacia métodos estadísticos, probabilísticos y basados en aprendizaje. Esto preparó el terreno para una de las transformaciones más significativas en la historia de la inteligencia artificial.

El giro hacia el machine learning

Uno de los cambios más importantes en la evolución de la IA fue el paso del enfoque basado en reglas explícitas al enfoque basado en aprendizaje a partir de datos. En lugar de programar manualmente todo el conocimiento, el objetivo pasó a ser entrenar modelos capaces de encontrar patrones en grandes conjuntos de información.

Así nació con fuerza el machine learning o aprendizaje automático. Este paradigma fue especialmente útil para tareas donde resulta casi imposible enumerar todas las reglas relevantes, como reconocer una cara, detectar spam, clasificar documentos o prever comportamientos de usuarios.

El auge del machine learning se vio favorecido por varios factores: mejores algoritmos, mayor potencia de cómputo, avances en estadística y una disponibilidad creciente de datos digitales. A medida que internet y los sistemas informáticos generaban más información, los modelos podían entrenarse con ejemplos más numerosos y variados.

Este giro cambió radicalmente el campo. La inteligencia artificial dejó de ser principalmente una cuestión de lógica programada para convertirse en una disciplina cada vez más experimental, empírica y orientada al rendimiento.

Redes neuronales: del escepticismo al protagonismo

Las redes neuronales artificiales aparecieron muy pronto en la historia de la inteligencia artificial, pero durante décadas ocuparon una posición secundaria. En 1958, Frank Rosenblatt presentó el perceptrón, un modelo inspirado de forma simplificada en el funcionamiento del cerebro. El entusiasmo inicial fue grande, pero pronto aparecieron críticas que mostraban sus limitaciones.

Durante un tiempo, las redes neuronales perdieron protagonismo frente a otros enfoques. Sin embargo, en los años 80 revivieron gracias al algoritmo de retropropagación, que permitió entrenar redes multicapa de forma más eficaz. Investigadores como Geoffrey Hinton, Yann LeCun y Yoshua Bengio fueron fundamentales en este resurgimiento.

Aun así, el verdadero despegue de las redes neuronales no llegó hasta que confluyeron tres elementos clave: gran cantidad de datos, más capacidad computacional y mejores arquitecturas. Cuando eso ocurrió, las redes pasaron de ser una alternativa prometedora a convertirse en el motor principal de la IA moderna.

1997: Deep Blue derrota a Garry Kasparov

Un hito cultural clave en la historia de la inteligencia artificial ocurrió en 1997, cuando Deep Blue, la supercomputadora de IBM, venció al campeón mundial de ajedrez Garry Kasparov. El acontecimiento tuvo una repercusión global porque el ajedrez había sido considerado durante décadas como una de las pruebas emblemáticas del intelecto humano.

Aunque Deep Blue no era una inteligencia general y dependía de búsqueda masiva y evaluación heurística, su victoria mostró que las máquinas podían superar a los humanos en tareas cognitivas altamente estructuradas. Fue una señal poderosa para la opinión pública: la IA no era solo teoría, ya empezaba a ganar terreno en ámbitos simbólicos de gran prestigio intelectual.

El triunfo de Deep Blue también tuvo un valor simbólico. Marcó un antes y un después en la forma en que la sociedad imaginaba la relación entre inteligencia humana y capacidad computacional.

Los años 2000: internet, datos y aplicaciones reales

Durante los años 2000, la inteligencia artificial siguió avanzando de forma quizá menos visible para el gran público, pero muy decisiva en términos prácticos. La expansión de internet, el comercio electrónico, los motores de búsqueda, las redes sociales y la digitalización de procesos empresariales generó un ecosistema ideal para el aprendizaje automático.

Las grandes plataformas tecnológicas comenzaron a utilizar IA para recomendar contenidos, segmentar anuncios, ordenar resultados de búsqueda, detectar fraude, filtrar spam, traducir textos y mejorar la experiencia del usuario. Aunque muchas personas no hablaban todavía de inteligencia artificial de forma cotidiana, ya convivían con ella en su día a día.

Esta etapa fue crucial porque consolidó el valor económico y operativo de la IA. La disciplina dejó de percibirse solo como un campo de investigación y empezó a demostrar su potencial como infraestructura empresarial y tecnológica.

2012 y la revolución del deep learning

En 2012 se produjo uno de los puntos de inflexión más importantes de la IA moderna. Una red neuronal profunda conocida como AlexNet logró resultados extraordinarios en la competición ImageNet, dedicada al reconocimiento de imágenes. La mejora frente a los métodos anteriores fue tan notable que la comunidad entendió que estaba ocurriendo un cambio de paradigma.

A partir de ese momento, el deep learning pasó a dominar áreas como la visión artificial, el reconocimiento de voz, el procesamiento del lenguaje y la predicción sobre grandes volúmenes de datos. Las redes profundas mostraron una capacidad excepcional para aprender representaciones complejas sin depender tanto de reglas o características diseñadas manualmente por expertos.

Esto transformó industrias enteras. Mejoraron los asistentes de voz, se perfeccionó la traducción automática, avanzaron los sistemas de conducción asistida y se aceleró la investigación médica basada en imágenes. La inteligencia artificial entró entonces en una fase de crecimiento acelerado y de creciente interés empresarial y geopolítico.

AlphaGo y el aprendizaje por refuerzo

En 2016, AlphaGo, desarrollado por DeepMind, derrotó al campeón Lee Sedol en el juego de Go. Este evento fue todavía más impactante para muchos especialistas que la victoria de Deep Blue en ajedrez, porque el Go se considera mucho más complejo desde el punto de vista combinatorio y estratégico.

AlphaGo combinaba redes neuronales profundas con aprendizaje por refuerzo, es decir, un sistema que aprende mediante prueba, error y optimización de resultados. Su victoria mostró que las máquinas podían desarrollar estrategias altamente sofisticadas sin necesidad de programar explícitamente cada movimiento posible.

Más allá del juego, AlphaGo simbolizó el potencial de la IA moderna para enfrentarse a problemas difíciles mediante aprendizaje, no solo mediante reglas definidas manualmente. Fue una señal clara de que la inteligencia artificial había entrado en una nueva era.

El gran salto del procesamiento del lenguaje natural

Durante décadas, uno de los grandes desafíos de la inteligencia artificial fue comprender y generar lenguaje humano de manera convincente. El lenguaje está lleno de contexto, ambigüedad, referencias implícitas y matices culturales, por lo que resultó mucho más difícil de formalizar de lo que muchos pensaban en los primeros años del campo.

Con el desarrollo de nuevas arquitecturas de aprendizaje profundo, especialmente los transformers, el procesamiento del lenguaje natural dio un salto enorme. Los modelos pudieron capturar relaciones complejas entre palabras, frases y contextos, mejorando significativamente la traducción, el resumen automático, la clasificación semántica, la generación de contenido y la interacción conversacional.

Este avance preparó el terreno para los modelos de lenguaje a gran escala, que hoy son capaces de redactar artículos, resumir documentos, generar código, responder preguntas, asistir en investigación y participar en flujos de trabajo profesionales de múltiples sectores.

IA generativa: la inteligencia artificial llega al gran público

La IA generativa supuso un nuevo punto de inflexión en la historia de la inteligencia artificial. A diferencia de los sistemas diseñados solo para clasificar o predecir, estos modelos pueden crear contenido original en distintos formatos: texto, imagen, audio, video y código.

Su llegada cambió la relación entre usuarios y tecnología. Millones de personas empezaron a interactuar directamente con sistemas de IA para escribir, diseñar, aprender, automatizar tareas, explorar ideas y acelerar procesos creativos o profesionales. Lo que antes funcionaba en segundo plano, detrás de plataformas y algoritmos invisibles, se volvió visible, accesible y masivo.

La IA generativa ha abierto oportunidades enormes en productividad, educación, marketing, desarrollo de software, investigación y creatividad. Pero también ha intensificado debates sobre desinformación, derechos de autor, autenticidad, sesgos, empleo y concentración del poder tecnológico.

La inteligencia artificial hoy

En la actualidad, la inteligencia artificial ya no es una promesa futura, sino una realidad presente. Se utiliza en medicina, finanzas, logística, industria, educación, investigación científica, ciberseguridad, entretenimiento y comunicación digital. Su alcance es cada vez más transversal.

En salud, ayuda a interpretar imágenes médicas y a descubrir nuevas moléculas. En finanzas, se usa para detectar fraude y analizar riesgo. En educación, impulsa sistemas de tutoría y personalización. En comercio electrónico y marketing, optimiza recomendaciones, segmentaciones y contenido. En empresas, automatiza procesos, mejora análisis y acelera la toma de decisiones.

Sin embargo, su expansión también obliga a pensar de manera crítica. La IA actual puede ser poderosa, pero no es infalible. Puede equivocarse, alucinar datos, reproducir sesgos o generar resultados difíciles de explicar. Por eso, su desarrollo exige responsabilidad, supervisión humana y marcos regulatorios cada vez más robustos.

Desafíos éticos y sociales de la inteligencia artificial

El avance de la IA no es solo técnico. También plantea preguntas profundas sobre sociedad, trabajo, democracia y derechos digitales. Uno de los principales desafíos es el de los sesgos algorítmicos. Si un modelo aprende de datos históricos imperfectos, puede reproducir discriminaciones existentes y afectar decisiones sensibles.

Otro reto central es la transparencia. Muchos sistemas, especialmente los más avanzados, son difíciles de interpretar. Esto complica su adopción en sectores donde es esencial saber por qué se tomó una determinada decisión, como en salud, justicia o finanzas.

También preocupa la privacidad, ya que la IA requiere cantidades enormes de datos para entrenarse y mejorar. A ello se suma el impacto en el empleo, la posibilidad de automatizar tareas cognitivas y la proliferación de contenidos sintéticos capaces de amplificar la desinformación. En paralelo, la concentración de infraestructura y talento en pocas empresas o países convierte a la IA en un asunto estratégico a escala global.

El futuro de la inteligencia artificial

Si bien hablar de la historia de la inteligencia artificial es pasado, mirar hacia adelante implica reconocer que la historia de la inteligencia artificial sigue escribiéndose. Todo apunta a que veremos sistemas cada vez más multimodales, capaces de integrar texto, imagen, audio, video y datos estructurados. También aumentará el desarrollo de IA especializada para sectores regulados y de alto valor económico.

Es probable que el futuro no dependa solo de modelos más grandes, sino también de sistemas más eficientes, más seguros, más explicables y mejor adaptados a necesidades concretas. La discusión sobre regulación, gobernanza y uso responsable seguirá ganando protagonismo, especialmente a medida que la IA se convierta en infraestructura crítica para gobiernos, empresas y ciudadanos.

La gran pregunta no es únicamente qué podrán hacer las máquinas, sino cómo elegiremos integrarlas en nuestras instituciones, en nuestras economías y en nuestra vida cotidiana. Ahí es donde el futuro de la IA se vuelve también una cuestión política, social y cultural.

Conclusión

La historia de la inteligencia artificial es la historia de una aspiración humana profundamente ambiciosa: entender la inteligencia y reproducir parte de ella en máquinas. Desde la lógica clásica y las primeras teorías matemáticas hasta los sistemas de aprendizaje profundo y la IA generativa, el recorrido ha sido largo, complejo y lleno de giros inesperados.

La inteligencia artificial ha pasado de ser una idea filosófica a una disciplina científica, de atravesar inviernos tecnológicos a convertirse en motor económico global, y de funcionar en laboratorios especializados a estar presente en la vida cotidiana de millones de personas. Su evolución demuestra que el progreso no ha sido lineal, sino resultado de múltiples avances en teoría, datos, infraestructura y poder computacional.

Comprender esta historia de la inteligencia artificial no solo ayuda a valorar mejor los logros actuales, sino también a mantener una mirada crítica sobre el presente. La IA no es magia ni destino inevitable. Es una construcción humana, con potencial inmenso, pero también con riesgos y responsabilidades. Por eso, conocer de dónde viene es la mejor forma de pensar con más claridad hacia dónde queremos que vaya.

Fuentes:

Stanford Encyclopedia of Philosophy – Artificial Intelligence

IBM – Deep Blue

Te puede interesar:

ChatGPT te dice cómo salir de “la carrera de la rata”

Similar Posts

Deja un comentario