Cultura

DESMITIFICANDO A CHATGPT

Por: Carlos Vermejo

Como especialista en informática con especializaciones en ciencia de datos, Big Data y diversas herramientas de inteligencia artificial, siendo consciente de la realidad de lo que es la IA desde mis primer programa de inteligencia artificial como juego “Eliza” en los 80, pasando por Golden Lisp el 89 y Prolog en el año 97, Business Inteligence y Big Data con Pentaho, mongodb, Hadoop, Spark y Couchbase e inteligencia artificial con Watson, ahora con OpenAI y chatGPT, quiero aclarar muchos temas que intencionalmente se repiten continuamente a través de los medios y las películas para hacernos creer varios mitos sobre estas tecnologías que en la realidad como el Marxismo promueven una creencia común que está basada en mentiras y mucha manipulación.

Debemos partir con que los terminos técnicos informáticos a falta de la existencia de algún nombre apropiado para describirlo, a veces se emplea un término coloquial que tiene una acepción particular, por ejemplo salvar un dato, no es que evitemos que un dato se muera o algo por estilo, quiere decir que guardamos ese dato en un disco duro para que permanezca guardado en el tiempo y no se borre, algo así sucede con el termino inteligencia artificial, ese término no se refiere a que el computador sea inteligente, el término acuñado por Touring era “Si se lograba comunicar con una máquina y no podíamos identificar si este era humano o no, entonces ya teníamos Inteligencia Artificial” es decir un programa que simula estar interactuando con un humano eso se llama inteligencia artificial, esencialmente fue un juego, una broma para divertirnos debido a que cuando apareció no tenía ninguna utilidad práctica.

De hecho en mi primer curso de inteligencia artificial con el lenguaje Golden Lisp en 1989, consideraba que era un lenguaje totalmente inpráctico y presagiaba su fracaso, recién en el año 1997 veo una aplicación útil con el lenguaje Prolog que se empleaba para la automatización del Sistema de Administración de redes de IBM llamado Tivoli en su componente Tivoli Enterprise Console, se recopilaba los eventos de una serie de sensores de componentes de una red, y de acuerdo a unas reglas, se correlacionaban esos eventos y si esa lógica cumplía la reglas entonces se ejecutaban acciones correctivas además de notificar la ocurrencia de algún problema o en su aplicación de seguridad se identificaba el proceso de un ataque y se informaba las acciones correctivas ejecutadas.

Luego con el desarrollo del aspecto matemático y estadístico se crearon las tabulaciones cruzadas, que luego se convertirían en los datamarts y los datawarehouses de la Inteligencia de Negocios, con modelos tipo estrella y copo de nieve, luego los modelos matemáticos se vuelven más avanzados con minería de datos y las herramientas y las bases de datos también comienzan a desarrollarse aún más con bases de datos de tipo NoSQL y luego con lo que es Big Data, la aparición de hadoop, spark y todo el ecosistema para hacer data lakes con arquitectura medallion.

A nivel de la Inteligencia Artificial, luego del Business Inteligence, se desarrolla también el machine learning basado principalmente en algoritmos de tipo estadísticos y cálculos de álgebra lineal, sin embargo desde hacía mucho tiempo basados en el conocimiento elemental del funcionamiento del cerebro como se pensaba en los años 50, se desarrolló unos algoritmos llamados redes neuronales, en esa época se pensaba que el pensamiento era electrónico y que el cerebro hacia su procesamiento con neuronas que tenían una o dos entradas eléctricas ejecutaban una función y de ahí sacaban una, dos o tres señales, con esto se creaba redes de algoritmos que guardaban un modelo de lógica difusa.

En paralelo se desarrolla el lenguaje Prolog, al ser un lenguaje esencialmente un lenguaje de reglas, permitía desarrollar un tipo de aplicación útil para la construcción de enunciados lingüísticos y desarrollo de programación debido a que maneja todas las reglas gramaticales y permitía deconstruir las preguntas y clasificarles en puntuaciones estadísticas que permitieran definir un criterio de búsqueda, el cual se construye tomando en cuenta su base de datos de hechos, esta forma de trabajo fue perfeccionada y en ciertos aspectos es lo que estamos viendo en chatGPT pero primero debemos ver la evolución de las redes neuronales.

Las redes neuronales en un principio también fueron un fracaso total, recuerden que esto era un juego y es principalmente por ello que comenzó a tener una utilidad práctica, IBM comienza con la alimentación de su sistema de red neuronal empleando unos algoritmos más avanzados en una nueva tecnología llamada Deep Learning, se encuentra que las redes neuronales solo son útiles para dos tipos de aplicaciones específicas, para construcción gramatical y para reconocimiento visual, para esto último crea mecanismos de entrenamiento para los modelos, y así comienza a recopilar por ejemplo escritura manual, de miles de personas diferentes, imágenes diferentes de diferentes fuentes para evitar que el modelo solo reconozca un tipo de escritura particular o un tipo de objeto, por ejemplo de una bicicleta, entonces necesita miles de fotos que le digan que es una bicicleta, vista desde muchos sitios distintos, de diferentes modelos colores tamaños, estados, etc.

Con el lenguaje paso algo similar incluyendo las traducciones, equivalencias, sinónimos, antónimos, clasificación verbos, adjetivos, conjunciones, signos, etc. Con esto se crean modelos lingüísticos donde se asociarán las palabra por temas, por ejemplo palabras de un circuito médico, y se entrena los modelos para que se conviertan en modelos expertos en algún tema como por ejemplo, medicina, programación, identificación visual, identificación de voz, gráficos, etc.

En paralelo, los buscadores como google, yahoo, etc, han tomado años clasificando contenidos vía internet, estas empresas cuentan con ejércitos de personas que clasifican la información y la sesgan además de colocar censura a ciertos temas, el argumento es evitar que información por ejemplo para construir virus o construcción de bombas pueda difundirse, pero además el criterio del clasificador se impone al igual que el ocultamiento de información que sea contraria al credo o a los objetivos globalistas, por ejemplo ya no se puede encontrar los descubrimientos de los físicos ingleses que estudiaron por muchos años la singularidad extraordinaria de la tierra y la imposibilidad práctica de que exista otro planeta similar en todo el universo a pesar del número extraordinariamente grande de sistemas estelares existentes, adicionalmente, busque estudios diversos que contradigan las causas antropomórficas del calentamiento global y no las encontrará, han eliminado intencionalmente todas la referencias de estudios contrarios diversos y si le muestra alguna le dirá que es información no confiable, etc.

Esta clasificación sesgada de la información incluyendo la censura, es la que se utiliza para la construcción de modelos matemáticos de Deep Learning diversos especializados por temas, sin embargo, existen proyectos de tipo open source que procuran limpiar la censura mediante entrenamiento de un modelo existente y publicando su propio modelo como Mixtral pero lamentablemente la ausencia de información eliminada de los buscadores no puede ser recreada debido a que no se puede encontrar por ello a pesar de que existe un esfuerzo para eliminar la censura globalista no se puede hacer mucho con el sesgo existente en diversos temas.

Esto viene desde hace unos años atrás cuando surgió una iniciativa primordialmente para desarrollar una solución de inteligencia artificial abierta imparcial y gratuita, esta es openai.org sobre la cual se crean y entrenan modelos diversos especializados y generales que son gratuitos y se pueden utilizar, ChatGPT es una empresa que utiliza este tipo de tecnología y emplea un lenguaje que emplea un modelo grande propio de Deep Learning, la última versión de su lenguaje es ChatGPT 4 que es su versión paga pero que en versiones libres se puede emplear Mixtral Dolphin especializado en programación y que tiene más precisión y performance incluso que ChatGPT 4, pero para que funcione bien en tu maquina debes tener por lo menos una tarjeta especial con GPUs y RAM de al menos 40 Gb. para que pueda entrar todo el modelo o utilizar tarjetas más pequeñas con versiones de modelos más simples con menor precisión y velocidad.

En el caso de Mixtral, este trabaja con 8 modelos expertos distintos, cuando llenas un prompt, Mixtral descompone tu pregunta y lo clasifica matricialmente, y lo envia a estos modelos, de acuerdo a la categoría de la pregunta le da más peso a un modelo que al otro, dentro de un modelo se colocan todas las palabras de la pregunta y se busca un resultado que se acerque más a esa pregunta y la relación con la respuesta del modelo, luego se toma el resultado de cada modelo, se calcula con sus pesos y se construye la respuesta final, no tiene ninguna semejanza con la forma como nosotros pensamos, solo recopila lo más cercano a lo que quieres de una respuesta guardada construida previamente con reglas fijas y solo la construye gramaticalmente.

Con respecto a los mitos de chatGPT al igual que la Inteligencia Artificial tenemos los siguientes mitos:

 

  1. La IA y ChatGPT está bastante lejos de ser infalible, incluso chatGPT y otros lo mencionan en la misma página donde haces las consultas.
  2. La IA y ChatGPT no piensa, tampoco procesa, solo hace correlaciones con modelos estadísticos de información previamente guardada.
  3. Las redes neuronales son fórmulas que se crearon con la idea que tenían de las neuronas en los años 50, ahora se sabe que las neuronas no trabajan de ésta manera, el pensamiento no es eléctrico y eso explica porque esta tecnología ha sido tan poco exitosa.
  4. La IA y ChatGPT no es de propósito general, en algunos aspectos es más falible y en otros no tiene la información.
  5. El Deep Learning basado en redes neuronales no es homogéneo o consistente, si se vuelve a preguntar lo mismo, escoge los siguientes valores del ranking que obtuvo al principio, entregando muy posiblemente respuestas peores.
  6. Existen varias tecnologías muy diferentes que también son Inteligencia Artificial, debría existir una obligación para indicar exactamente qué parte y que tecnología se está empleando.
  7. La IA fuerte solo es útil para reconocimiento visual y construcción gramatical.
  8. Los sistemas expertos en la realidad a pesar de ser los más usados, estrictamente no son IA sino programas normales, incluyendo los chatbots, en el caso de ChatGPT, recoge información de los modelos y estos previamente lo extrajeron de los buscadores, el contenido no es creado, solo la presentación de la respuesta es la que se construye.
  9. Las predicciones de Machine Learning son útiles por un corto espacio de tiempo, erradamente se le da mucha importancia a los datos históricos para predecir cosas con espacios de tiempo mayores.
  10. La IA no puede ser empleada en aplicaciones con decisión autónoma, especialmente en los problemas morales que dependen de la vida o muerte de personas incluyendo el auto autónomo que ya ha tomado varias vidas.
  11. La idea que la IA se equivoca menos que un humano es otro mito, depende de la aplicación, si la casuística es más variable fallara mucho más.
  12. La IA no crea, correlaciona datos a través de modelos matemáticos, luego establece rankings de cercanía y con ello genera una respuesta.
  13. La IA no aprende, en el Deep Learning los modelos se entrenan y se ajustan, para generar respuestas recopilan lo escrito en el prompt y lo guarda por un periodo de tiempo para inferir mejor la pregunta y buscar modelos más adecuados y con ello construir una mejor respuesta, el entrenamiento se termina con la creación del modelo, antiguamente se daba el caso de modelos abiertos a entrenamiento por el usuario final, estos han sido fracasos totales debido a que los modelos se programaban con información bastante mala y perdían utilidad en el corto plazo, se eliminó esta posibilidad.

Dejar una respuesta