¿Está ganando Leibniz la batalla en Inteligencia Artificial?

*Celso Vargas Elizondo

Escuela de Ciencias Sociales

Email: celvargas@itcr.ac.cr

https://orcid.org/0000-0002-1701-6186

Bajo el título de esta perspectiva, la mitad en serio y la otra mitad en broma,  se pretende explorar, brevemente, algunos aspectos de la contribución, la persona y hasta donde entiendo, el estilo de Leibniz, y que podemos rastrear en algunos desarrollos de la IA, especialmente, en el últimos chatbots, del tipo LLAMA, ChatGPT y DeepSeek. 

  1. El cálculo binario. Desde que Konrad Zuse creará sus primeras computadoras mecánicas binarias en los años 1936 y siguientes, el uso del sistema de codificación binario para indicar conectado o no conectado (pico de paso de electricidad y no pico) y para codificar los distintos símbolos del código ASCII, se convertido en el modelo estándar para el diseño, construcción y desarrollo de computadores y de microchips que son actualmente utilizados en distintas aplicaciones de la IA. Leibniz fue uno de los primeros, sino el primero, en desarrollar el sistema aritmético binario.  En la colección de Lloyd Strickland and Harry Lewis (2022), titulada: “Leibniz on Binary. The Invention of Computer Arithmetic” (The MIT Press), se reúnen los principales escritos de Leibniz sobre este tema.  Leibniz no solo ejemplifica como convertir cualquier número natural en su correspondiente número binario, sino que también proporciona de manera completa las reglas (“Ley Combinatoria formal”, como la llama Leibniz) que podemos utilizar para llevar a cabo este proceso.  En este aspecto, Leibniz es un relevante filósofo que deberíamos considerar como pionero (aunque sus trabajos se conocieron posterior a la publicación Boole) de este importante campo de la ciencia y tecnología. 
  2. La Characteristica Universalis.  Uno de los sueños leinibzianos fue la construcción de un cálculo universal que permitiera representar, deducir e inventar nuevos símbolos, signos y conocimientos.  Realmente lleva razón Eberhard Knobloch, que en el resumen de su trabajo “Leibniz between ars characteristica and ars inveniendi: Unknown news about Cajori’s ‘master-builder of mathematical notations” (s.f.) indica que realmente se trata de tres cálculos o artes: “… el ars característica esto es el arte de inventar caracteres y signos; el ars combinatoria que es el arte de la combinación; el ars inveniendi que es el arte de la invención de nuevos teoremas, nuevos resultados, nuevos métodos.  Estas artes están fuertemente correlacionadas unas con las otras”.  

Los extraordinarios desarrollos en IA que hemos visto en los últimos años, especialmente a partir del 2023 nos acercan cada vez más a ese sueño leibniziano.  Chats como ChatGPT y DeepSeek, entre otros, no sólo proporcionan demostraciones detalles de ecuaciones y teoremas, sino que están en capacidad de proponer nuevos teoremas y proporcionar demostraciones a los mismos.  GEMINI en particular asume roles importantes como el de docente en la demostración paso a paso expresiones algebraicas, para mencionar un ejemplo.  

3. El proyecto de enciclopedia o ciencia universal.  Este proyecto leibniziano está directamente relacionado con el anterior y tiene dos aspectos relevantes para esta perspectiva: a) Leibniz como el último gran pensador que estaba enterado y mostraba un importante dominio de todos los temas relevantes de su tiempo; b) su propuesta de promover la fundación de sociedades científicas.  Tal y como señalan Oscar Esquisabel y Manuel Sánchez-Rodríguez (2023) en el estudio introductorio al Volumen 3, Ciencia General y Enciclopedia, publicada por la Editorial Comares, España: 

“Este ideal de la función de la ciencia como un camino cierto hacia la promoción del bien común por medio del incremento de las luces es ostensible, ante todo, en el proyecto leibniziano de la enciclopedia, que Leibniz concibe claramente como una empresa colectiva e institucional, para lo cual se requiere de acciones coordinadas del poder público y del mundo erudito. Por esa razón, la realización del programa de la enciclopedia es inseparable del programa científico institucional y político de fundación de academias, o como él mismo las denominaba, de sociedades de ciencias y artes. La Sociedad no es tanto un complemento de la enciclopedia, sino la articulación institucional efectiva de este mismo proyecto, por la cual puede llegar a su realización y aplicación práctica (p. xv).

En nuestra atrevida comparación, podemos ver elementos de cada uno de estos aspectos en dos arquitecturas utilizadas en este momento en IA: La arquitectura que podríamos denominar de mono-estructura y la arquitectura de mezcla de expertos.  En la primera, las dos propiedades fundamentales de los modelos fundacionales, a veces llamados, Large Language Models (LLMs), homogenización y emergencia son utilizados para entrenar y para responder preguntas que se hagan, por ejemplo, al ChatGPT. En el proceso de entrenamiento alrededor de 175 mil millones de parámetros son ajustadas en sus valores de manera que esté pronto a responder.  Ajustes menores posteriores se realizan para hacer que el sistema se adecúe a las necesidades del usuario.  En el caso de la arquitectura de mezcla de expertos, el proceso de entrenamiento se lleva a cabo por módulos (expertos) garantizando la integración del sistema.  De esta manera, tenemos tantos módulos expertos (en matemática, química, física, biología, etc.) como sea necesario, y solamente los dominios relevantes son activados en el proceso de consulta.  DeepSeek funciona de esta manera y, lo que es interesante es que el sistema complejo contiene más de 780 mil millones de valores (parámetros) involucrados, más de 4 veces que los parámetros de ChatGPT

En este sentido, en nuestra comparación, el modelo de la enciclopedia en IA es un sistema que involucra todo el sistema de IA cuando es corrido. Es como el Leibniz enciclopédico que responde por el mismo todas las preguntas que se le haga.  Por otro lado, el modelo mezcla de expertos solamente activa aquel módulo o módulos que están involucrados en la consulta de un programa.  Es como su hubiera un panel de expertos (sociedad científica) que responden a las preguntas que se planteen según su especialidad.  Pero contrario a lo que sucede en las sociedades científicas, el pago que se hace a los expertos depende solo de las consultas que se le haga, mientras que el experto enciclopédico requiere muchos recursos para hacer su trabajo.  La cantidad y calidad de microchips, y el consumo eléctrico asociado es mucho mayor en un experto enciclopédico que en un panel de expertos.  Esta es una de las grandes ventajas de DeepSeek sobre ChatGPT, por ejemplo.

De esta manera, una de las consecuencias de este aspecto es que Leibniz como experto universal está en desventaja cuando lo comparamos con el desempeño de una sociedad científica, y está en desventaja en el sentido de requiere mucha memoria, capacidad de procesamiento y energía para funcionar adecuadamente.  Desventaja que no encontramos en el enfoque de mezcla de expertos.

Precursores de la teoría de campos de fuerza: El periodo pre-crítico

*Celso Vargas

En la época en la que Immanuel Kant (1724-1804) inicia su carrera intelectual, Newton había desplazado a Descartes en su visión de la mecánca. Pero también es el tiempo del gran debate entre los partidarios de Leibniz y de Newton sobre la fundamentación de la física, especialmente, la discusión sobre la vis-viva. Para recordar la vis-viva es la tesis Leibniziana de que lo que se conserva en la naturaleza no es masaxaceleración (ma), sino más bien, masaxaceleración al cuadrado (ma2). La segunda ley de Newton introducía la conservación del momentum como base en su sistema inercial. Corresponderá a D´Alambert el haber mostrado que la vis-viva se mantiene en casos en los que un cuerpo es gradualmente frenado, pero en la mayoría de los casos la conservación del momentum es la forma adecuada de medir el movimiento de los cuerpos. Pero, por otro lado, eran muy atractivas las ideas leibnizianas de las fuerzas como inherentes a los cuerpos, así como los éxitos de Euler en sus investigaciones sobre la hidro-dinámica (dinámica de fluidos) en las que utiliza la fuerza como un factor interno. La impenetrabilidad de los cuerpos constituye también un muy fuerte argumento de Leibniz que falta por armonizar desde una perspectiva newtoniana. Actualmente, existe cierta correspondencia entre vis-viva y energía potencial, la cual se expresa como:

Continuar leyendo “Precursores de la teoría de campos de fuerza: El periodo pre-crítico”

Newton: Una referencia indispensable al hablar de teoría de campos

*Celso Vargas

Es claro que Isaac Newton (1643-1717) no es un precursor de la teoría de campos de fuerza. Sin embargo, sus contribuciones científicas se convirtieron en el standard de racionalidad, el modelo a seguir en aquellas áreas que pretenden ser ciencia, y en el criterio para discriminar entre ciencias y otros campos no científicos, por ejemplo, los principios sintétitos a priori de la epistemología kantiana. Dos importantes obras fueron realmente relevants en este proceso: Los Principia Mathematica de Filosofía Natural (1686) y la Óptica (1704). Se conoce como newtonianismo al movimiento, no solamente de seguidores y aficionados de Newton, sino también de aquellos intelectuales dentro y fuera de Inglaterra que participaron en el proyecto de darle la forma definitiva a los logros alcanzados por Newton. Proyecto éste que recorre prácticamente todo el siglo XVIII. Es en el continente donde alcanzarán los mayores resultados e involucra a los más importantes científicos de ese siglo, como los Bernouli, Euler, D´Alambert, Lagrange y Laplace para mencionar a algunos. Otras iniciativas importantes en ese siglo es hacer compatibles los logros de Newton con los de Leibniz en la física. Veremos en otra perspectiva uno de estos esfuerzos, el de Kant. Uno de los primeros logros continentales consistió en traducir el formalismo utilizado por Newton, basado en su teoría de las fluxiones y su compleja notación, al formalismo más abstracto y algebraico desarrollado por Leibniz y otros matemáticos del conteinente. Es precisamente cuando se hace esta traducción que se pueden apreciar a cabilidad sus grandes contribuciones. Durante el siglo XIX el modelo de mecánica de Newton es el estándar de referencia para abordar los nuevos problemas científicos incluyendo, desde luego, los esfuerzos por tratar la electricidad y el magnetismo dentro del newtonianismo, pero sin el éxito esperado.

Continuar leyendo “Newton: Una referencia indispensable al hablar de teoría de campos”

Precursores de la teoría de campos de fuerza: Leibniz

*Celso Vargas Elizondo

Gottfried Wilhelm Leibniz (1646-1716) es uno de los filósofos que más avanzó en el desarrollo de la teoría de los campos de fuerza. Pero sus escasas publicaciones durante su vida hicieron que su obra no fuera conocida sino hasta el siglo XX. Todavía faltan varios trabajos por publicar, sin embargo, no se espera que cambie sustantivamente lo que se conoce actualmente sobre este tema. 

Son significativas sus contribuciones a la física y también su propuesta, alternativa a Newton, de una teoría de gravitación, basada en una remozada perspectiva de los vórtices y de la circulación armónica. En varias publicaciones, pero especialmente en una de 1689 (Una propuesta para explicar las causas de los movimientos celestes) y a partir de variaciones infinitesimales, Leibniz muestra la manera en la que el movimiento circular, que respete la ley de inverso del cuadrado de las distintacias, puede transformarse en una elipsis o grupos de elipsis (movimiento paracéntrico) en las que se cumple también la ley del inverso. Es decir, que el movimiento elíptico es también circulación armónica y cumple también con la ley de las áreas de Kepler. Al igual que Descartes, los planetas no tienen movimiento de rotación propio, sino que son arrastrados por la acción de vórtice. Esta característica será compartida por la teoría de la relatividad de Einstein. Además, y contrario a Newton, no se requiere acción instantánea ni a distancia, ya que toda acción requiere tiempo y mediación.

Continuar leyendo “Precursores de la teoría de campos de fuerza: Leibniz”

Precursores de la teoría de campos de fuerza: Descartes

*Celso Vargas Elizondo

El experimento de Oersted (1820) se ubica al inicio de ese gran impulso que culmina con dos importantes teorías de campos de fuerza: el electromagnetismo y la teoría de la relatividad de Einstein.  Estas teorías tienen antecedentes que merecen la pena desarrollar en estas perspectivas. Uno de estos es Descartes.

René Descartes (1596-1650) fue uno de los filósofos más influyentes en el siglo XVII y en las dos primeras décadas del XVIII, en el ámbito de la nueva filosofía mecánica y, en especial, en física.  Fue a través de sus discusiones con Isaac Beeckman (1588-1637) que Descartes será introducido en la teoría atómica, que Beeckman aplicaba tanto a la física como a la matemática.  Durante un periodo muy corto de tiempo Descartes fue atomista. El atomismo de estos filósofos mantiene las siguientes tesis: a) la existencia de indivisibles o unidades últimas (en matemáticas y en física), b) el mundo observable es el resultado de la combinación de estas unidades básicas, produciendo el efecto de continuidad que encontramos en los cuerpos. En esta etapa del pensamiento de Descartes,  un cuerpo, por ejemplo, está formado por determinados indivisibles matemáticos; c) la existencia de espacio vacío, d) La explicación de los fenómenos físicos debe hacerse en términos de tamaño, forma y movimiento.

Continuar leyendo “Precursores de la teoría de campos de fuerza: Descartes”

Oersted, Ampère y Faraday: sobre el experimento de Oersted

*Celso Vargas Zamora

Un fascinante episodio de la historia de la física lo constituye la discusión que se produce en relación con el experimento de Oersted (1820), entre Ampère (1775-1836) y Faraday (1791-1867). También participó Oersted. Sin embargo, nos centraremos en estos dos últimos. Ampère, un destacado matemático y físico, partidario de la física newtoniana; Faraday, un extraordinario físico y experimentalista, convencido de que la electricidad y magnetismo son manifestaciones de una única fuerza presente en la naturaleza. Es uno de los más apasionados y profundos promotores de la teoría de los campos de fuerza, a la que contribuyó de manera significativa. 

Oersted fue influido por la idea de Johann Wilhelm Ritter (1776-1810) de que hay interacción entre electricidad y magnetismo. Esta idea estaba inspirada en Schelling. Su experimento de 1820 parecía demostrar esta interacción. Así fue reconocido por la comunidad científica. Sin embargo, para Ampère este experimento no mostraba tal interacción. La razón de hecho es muy simple: No puede existir tal interacción. Para Ampère la electricidad y el magnetismo son dos fenómenos completamente diferentes; no hay interacción entre ellos. Algunos elementos del mismo experimento de Oersted parecía indicar que el tema podía ser abordado desde el punto de vista newtoniano. Primero, la intensidad del efecto observado al aplicar una corriente eléctrica al gálvano, varía según el inverso del cuadrado de las distancias, una importante ley newtoniana. Segundo, aunque Oersted no lo menciona, parece existir fuerzas de atracción y repulsión que explican los movimientos en dirección opuesta de la aguja imán según la posición en la que se coloque el cable negativo. 

Continuar leyendo “Oersted, Ampère y Faraday: sobre el experimento de Oersted”

Una posible interpretación del experimento de Oersted a partir de Ladriere

*Celso Vargas Elizondo

En su pionero libro sobre los estudios del impacto de la ciencia y la tecnología sobre la cultura,  El Reto de la Racionalidad (1977), Jean Ladriere presenta algunas ideas interesantes que nos podría permitir realizar una interpretación de los experimentos de Oersted de 1820. 

La ciencia moderna se desarrolla marcada por el concepto de racionalidad. El tipo de racionalidad del que hablamos es aquel de la filosofía griega, cuyo rescate inicia con el renacimiento europeo y que alcanzará su plenitud en la filosofía del siglo XVII, XVIII y XIX, y hasta el presente. La segregación de las ciencias heredará esta característica filosófica. Una teoría científica es la aprehensión racional de la realidad (sub specie aeternitatis), es decir, como universal y eternamente verdadera. La verdad como correspondencia y la regularidad de la naturaleza son dos de los elementos centrales de esta racionalidad que la ciencia hereda. Una teoría científica se asemeja así a aquellas perspectivas filosóficas de la sabiduría (Leibniz se hace eco de esta idea) y de la perfección individual. El científico es el nuevo sabio. Pero esta herencia pronto sufrirá transformaciones sustantivas.

Continuar leyendo “Una posible interpretación del experimento de Oersted a partir de Ladriere”

El experimento de Oersted desde el perspectiva de las revoluciones científicas

*Celso Vargas Elizondo

Como se recordará, para Thomas Kuhn, la ciencia evoluciona por el establecimiento y eventual destronamiento de paradigmas; proceso conocido como revoluciones científicas. Debido a lo ambiguo del este concepto, en el “pos-cripto de 1969”, Kuhn precisará el término “paradigma” en dos sentidos diferentes, uno más sociológico para identificar a una comunidad de científicos que comparten una determinada visión y valores. El segundo, el de “matriz disciplinar”, para captar uno de los aspectos sustantivos de la evolución del conocimiento científico. De esta manera, Kuhn sigue utilizando el término “paradigma” en estos dos sentidos, los cuales son contextualmente separables. Así salva la gran popularidad que este concepto adquirió dentro y fuera de las ciencias naturales; ha sido muy importante en las ciencias sociales.

De manera general, el paradigma captura el carácter revolucionario de ciertos momentos de la ciencia en los que una determinada visión de mundo, un conjunto de prácticas, formas de abordar los problemas y de representar el mundo, es drásticamente reemplazado por otro. Significativo es el caso del geocentrismo de Ptolomeo que fue desplazado rápidamente, después de unos1400 años de vigencia, por el heliocentrismo copernicano mucho más adecuado a los nuevos datos. Esto propició a su vez, el desarrollo de una de revoluciones científicas más importantes del siglo XVII y XVIII: la mecánica newtoniana. Esta mecánica no solamente reemplazó la física aristotélica, sino que permitió unificar una serie de “fenómenos” que antes aparecían de manera desligada. Tal es el caso de la relación entre la fuerza que mantiene unidos los planetas y el sol, la caída de los cuerpos, las trayectoria de los cometas, el achatamiento del globo en el ecuador y las mareas, entre otros. Esto trajó un increíble avance del conocimiento científico.

Continuar leyendo “El experimento de Oersted desde el perspectiva de las revoluciones científicas”

El Experimento de Oersted (1820) como parte de un programa científico de investigación

*Celso Vargas Elizondo

En la anterior perspectiva señalamos que nos llama la atención el carácter optimista, positivo de la presentación de los resultados de sus experimentos por parte de Oersted.  Esto en contraste con lo que nos indica Popper al enfatizar en la falsabilidad de las teorías científica.  Una de las propuestas filosóficas y metodológicas que nos permite explicarlo es la de Lakatos (1922-1974), conocida como Metodología de las programas científicos de investigación.  Es una metodología general que se aplica tanto al desarrollo de la ciencia como de las matemáticas. La propuso en 1965, pero no tuvo el tiempo suficiente para desarrollarla de manera más rigurosa. Sorprendente resulta  la aplicación de esta metodología a diferentes casos en la historia de la ciencia que Lakatos en las que muestra un gran dominio.  Incorpora elementos de otras metodologías, dentro de un marco bastante original y racional. Utiliza conceptos analógicas como núcleo duro de una teoría, heurística positiva, heurística negativa, cinturón protector de la teoría.  No es el único en hacer este uso en filosofía de la ciencia, recordemos a Quine. No obstante lo anterior, permiten ser aplicados de manera bastante precisa en la evaluación del desarrollo de la ciencia. 

Continuar leyendo “El Experimento de Oersted (1820) como parte de un programa científico de investigación”

Interpretación Popperiana del experimento de Oersted de 1820

*Celso Vargas Elizondo

Para Popper, la ciencia progresa mediante un constante proceso de resolución de problemas. Cuando se arriva a una idea, por ejemplo, “es posible la interacción entre la electricidad y el magnetismo”, el primer problema que enfrenta el científico es expresar esa idea en términos lo más precisos, por ejemplo, “puede determinarse (observarse) la interacción entre electricidad y magnetismo”. El segundo problema que enfrenta es convertir esta idea de forma que se puedan derivar consecuencias experimentales.  Por ejemplo, “Si existe interacción entre electricidad y magnetismo, al aplicar una corriente eléctrica X al arreglo Y, se producirá un efecto Z”; prestando atención a que el consecuente efectivamente sea deducible del antecedente.  Tercero es importante hacer explícitas las hipótesis auxiliares de manera que resulte claro que, del arreglo experimental propuesto, puede someterse a contrastación la afirmación “existe interacción entre la electricidad y el magentismo”. Finalmente, llevar a cabo el experimento esforzándose por encontrar un resultado negativo.  Si se obtiene, aplicando Modus Tollendo Tollens (MT) podemos concluir que el antecedente es falso. Es decir, que no hay interacción entre la electricidad y el magnetismo. Si el resultado fue positivo, es decir, se corrobora la interacción entre electricidad y magnetismo, se afirma que, de manera tentativa, la teoría ha pasado la prueba, pero en ningún sentido se puede afirmar que haya sido confirmada, pues el siguiente caso o experimento podría falsar la teoría en cuestión.

Varios problemas importantes enfrenta esta metodología.  Nos centraremos en los cuatro siguientes:

a) Caundo un resultado experimental es negativo, realmente lo que tenemos en una conjunción entre la hipótesis H, y las hipótesis auxiliares que hemos introducido durante el proceso de experimentación.  En este caso, tenemos que lo que se somete a experimentación es la conjunción de H y Ai, donde Ason las hipótesis auxiliares.  El MT lo que establece es que: Si P implica Q, y Q es falso, entonces, P es también falso, es decir, No-P.  En este caso, P es (H ˄ A1˄ … ˄ Ai) y, por tanto, No-(H ˄ A1˄ … ˄ Ai) es igual a decir, No-H o No- Ao….o No- Ai.   Es decir, no implica que H sea falsa, sino que puede ser alguna o algunas de las hipótesis auxiliares. Popper es muy consciente de este problema e introduce la siguiente regla metodológica: “… se considerarán aceptables únicamente aquellas cuya introducción no disminuya el grado de falsabilidad o contrastabilidad del sistema…, sino que lo aumente”.

b) El experimento no está adecuada diseñado.  Aquí tenemos dos opciones.  Uno, que se deba a aparatos defectuosos, como es el caso de los primeros experimentos de Oersted.  Esto se corrige, como también hizo Oersted, mejorando los dispositivos requeridos para un mejor experimento.  El segundo caso es cuando los resultados obtenidos no son replicables.  Un ejemplo en cuestión fueron los experimentos de Bitter sobre magnetoquímica.  Estos fueron seriamente criticados por Paul Erman (1764-1851) un destacasdo físico. Fueron tan severas la críticas que propicio un estancamiento en este ámbito del conocimiento durante varias décadas.

c) Cuando los resultados no son claramente interpretados. Esto sucedió también con la interpretación de los resultados de Oersted que introdujo teorías como “conflicto eléctrico” que hacían poco claro el impacto de su experimento.  Desde luego esto sucede cuando un determinado campo de la investigación es incipiente, es decir, cuando los conceptos y la teoría sobre el campo no han sido consolidados.  Finalmente,

d) Cuando el incipiente desarrollo de un campo permite que se cuestione fuertemente la validez del supuesto de partida.  En este caso, de que existe interacción entre electricidad y magnetismo.  Ampére analizó con detalle el experimento de Oersted y propuso una interpretación teórica de los resultados, muy consistente, basada en el supuesto de que la electricidad y el magnetismo son fenómenos diferentes y que el efecto observado es una forma de  manifestación de la electricidad. Para este autor, entonces, el experimento de Oersted no establece ningún tipo de interacción.

Cuando realizamos la lectura del reporte de sus experimentos de Oersted publicado en  1820, no encontramos mucho de la perspectiva popperiana.  Más bien, nos parece que hay un esfuerzo por describir, de manera bastante precisa, el experimento realizado de manera que se pueda replicar.  De hecho, incluso recurre Oersted a una técnica para memorizar mejor una de las condiciones.  Dice “(p)ara que estas cosas puedan ser más fácilmente recordadas, usemos esta fórmula: el polo sobre el cual la electricidad negativa entra, se vuelve hacia el oeste, cuando entra por debajo, se vuelve al este”.  El reporte del experimento está escrito de manera muy positiva lo que pone de manifiesto el convencimiento del autor, no solo en relación con la idea de la interacción entre la electricidad y el magnetismo, sino también en el sentido de que ha establecido una prueba experimental de que es así.  Más aún, en el reporte de sus experimentos hay un esfuerzo por proponer una interpretación de los resultados y extrapolar los resultados obtenidos a otros ámbitos científicos.   Por ejemplo, en relación con su teoría de los “conflictos eléctricos” señala que ha demostrado que el calor y la luz están en conflicto eléctrico, de manera que el conflicto eléctrico es un fenómeno más general.

Por lo anterior, nos parece que debemos buscar otras posibilidades teóricas de entender este tipo de experimentos; lo cual haremos en dos próximas perspectivas.