Diccionario de Inteligencia Artificial

He creado este diccionario o glosario de Inteligencia Artificial con el objetivo de facilitar la compresión de los conceptos relacionados con este fenómeno y la vez ser un directorio de app de IA que están disponibles en la actualidad. La IA es, posiblemente, el segundo mayor invento de la historia de la humanidad después de la escritura y algo de tal magnitud que se le ha otorgado la condición de singularidad tecnológica.

IA

Lista de temas: Asistentes(7) - ChatGPT(3) - Contenidos(1) - Definiciones(16) - Desarrollo(1) - Empresas(7) - Imágenes(1) - Open Source(8) - Personajes(11) - Programación(3) - Proyectos(4) - Redes Sociales(1) - Servicios Web(4) -

Asistentes

ALPACA - Bard - ChatGPT - Gemini - GPT4All - LLaMA - Phi-2 -

ALPACA

Es el modelo de lenguaje de Stanford que compite con GPT-3.5. Alpaca fue ajustado a partir del modelo LLaMA 7B de Meta y entrenado en miles de demostraciones de seguimiento de instrucciones generadas utilizando text-davinci-003. ...
Los investigadores señalan que Alpaca muestra muchos comportamientos similares a text-davinci-003 de OpenAI, pero también es sorprendentemente pequeño y fácil de reproducir. Han publicado la receta de entrenamiento y los datos, y planean lanzar los pesos del modelo en el futuro. Los investigadores también han organizado una demostración interactiva para permitir que la comunidad de investigación comprenda mejor el comportamiento de Alpaca. Alentan a los usuarios a informar cualquier comportamiento preocupante en la demostración web para ayudarles a comprender y mitigar estos comportamientos. Sin embargo, los investigadores enfatizan que Alpaca está destinado solo para investigación académica y está prohibido su uso comercial. Descarga: Alpaca en GitHub.

Fecha: 13-03-2023

Bard

Es un modelo de lenguaje grande, también conocido como IA conversacional o chatbot, entrenado para ser informativo y completo. Está entrenado en una gran cantidad de datos de texto y puedo comunicarse y generar texto similar al humano en respuesta a una amplia gama de indicaciones y preguntas. Por ejemplo, puedo proporcionar resúmenes de temas factuales o crear historias....
No es una persona, ni tiene sentimientos ni emociones o un cuerpo físico. Es un programa de computadora que puede procesar y generar texto. Su propósito es ayudar a los usuarios a encontrar información y completar tareas. Puede hacerlo proporcionando resúmenes de temas factuales, traduciendo idiomas, escribiendo diferentes tipos de contenido creativo y respondiendo a sus preguntas de manera informativa.

Fecha: 16-12-2023

ChatGPT

Sistema que permite preguntar a un algoritmo desarrollado por OpenAI todo tipo de cuestiones mediante el formato de una conversación (chat) de preguntas y respuestas....
En diciembre de 2022 ChatGPT usa 175 millones de parámetros y ha sido entrenado con grandes cantidades de texto. Puede traducir textos y generar texto extensos como respuesta a las preguntas realizadas. ChatGPT responde preguntas de seguimiento, admita errores, cuestiona premisas incorrectas y no admite preguntas inapropiadas.

Fecha: 12-12-2022

Gemini

Modelo de inteligencia artificial más potente hasta la fecha, lanzado por Google en diciembre de 2023. La nueva tecnología ya comienza a estar disponible en algunos de sus productos como Bard, su rival de ChatGPT, y en el Pixel 8 Pro....
Google ha presentado tres versiones de Gemini:
  • Gemini Nano, su variante enfocada en la eficiencia para el procesamiento y la ejecución de tareas directamente desde un dispositivo. Esta será la IA que llegará a la versión tope de gama del Pixel 8 para potenciar nuevas funciones.
  • Gemini Pro, una alternativa intermedia que Google afirma que es la mejor para escalar en un rango muy amplio de tareas. Una versión refinada de este modelo de inteligencia artificial es la que ahora se implementa en Bard.
  • Gemini Ultra es la versión más potente y capaz que Google ha desarrollado para llevar a cabo tareas complejas. Esta variante se presenta para competir cara a cara con GPT-4, de OpenAI, y, según parece, lo vence en la mayoría de las pruebas de rendimiento.
 

Fecha: 15-12-2023

GPT4All

Basado en GPT, el popular modelo de lenguaje de IA de OpenAI, GPT4All está pensado para dar respuestas funcionando localmente en el equipo donde lo instalemos. Windows, macOS o Linux. Al igual que ChatGPT, responde a preguntas abiertas, puede redactar sus propios textos, resumir un documento o escribir código de programación. ...
Sus creadores son Nomec AI. Es un chat gratuito y anónimo, basado en IA de código libre permite entrenar nuestro propio modelo de lenguaje sin depender de hardware externo. Permite elegir entre varios modelos disponibles. Por otro lado, aunque el cliente de escritorio se actualiza automáticamente añadiendo las mejoras disponibles en el ecosistema creado por GPT4All.


LLaMA

Sistema de Inteligencia Artificial creado por Meta, la empresa responsable de aplicaciones como Facebook, Whatsapp o Instagram. Se trata de un modelo de lenguaje que busca hacerle la competencia al ya conocido ChatGPT, pero que de momento tan solo estará abierto para la investigación. ...
Como explica el blog de Meta, LLaMA, acrónimo de Large Language Model Meta AI, estará disponible con licencia no comercial, es decir, para ser empleada en investigación académica e industrial, tanto por la sociedad civil como por entidades gubernamentales. Su objetivo es mantener la integridad de la IA y evitar que se pueda utilizar de forma indebida por cualquier persona. A diferencia de Bing AI de Microsoft (basado en ChatGPT) o de Bard, de Google, la propuesta de Meta se presentó como una herramienta de investigación que “busca democratizar el acceso a este importante campo que cambia rápidamente” Es un modelo bastante más básico que su competencia directa(ChatGPT), pero busca ser más versátil y menos exigente en cuanto a recursos.

Fecha: 21-04-2023

Phi-2

Es un modelo de lenguaje pequeño (SML, por sus siglas en inglés) capaz de superar a Llama 2 y otros competidores. Desarrollado por Microsoft Research, la empresa lo ha anunciado en diciembre de 2023. El modelo demostró excelentes capacidades de razonamiento y comprensión de lenguaje. ...
Las conclusiones de los investigadores son que se desempeña mejor que la inteligencia artificial de Meta y Google en algunas tareas. ¿Cómo es posible conseguir mejores resultados con menos parámetros? El secreto está en el entrenamiento. Phi-2 se entrenó con un conjunto que incluye textos sintéticos de PNL, subconjuntos de código obtenidos de Stack Overflow, competencias de programación y más. De momento Phi-2 solo estará disponible para proyectos de investigación. El SML se ofrecerá como parte de Azure AI Studio para fomentar el desarrollo de modelos de lenguaje. La licencia actual no permite utilizarlo en aplicaciones comerciales, como ChatGPT.

Fecha: 15-12-2023

ChatGPT

Código VBA (1) - Consultar temas científicos - Procesar datos de imágenes -

Código VBA (1)

Necesito un codigo VBA que reemplace en un string una etiqueta por una cadena vacía. Debes tener en cuenta que dentro de la etiqueta se usan " y que puede haber varias etiquetas span.

Consultar temas científicos

¿Me puedes explicar en 250 palabras que son las "esferas Dyson" en relación a civilizaciones extraterrestre?

Procesar datos de imágenes

Subir una imagen y usar el siguiente prompt: Esta imagen es una tabla de datos ¿Me la puedes convertir en un archivo csv que pueda abrir con Excel?

Contenidos

ChatGPT -

ChatGPT

Sistema que permite preguntar a un algoritmo desarrollado por OpenAI todo tipo de cuestiones mediante el formato de una conversación (chat) de preguntas y respuestas....
En diciembre de 2022 ChatGPT usa 175 millones de parámetros y ha sido entrenado con grandes cantidades de texto. Puede traducir textos y generar texto extensos como respuesta a las preguntas realizadas. ChatGPT responde preguntas de seguimiento, admita errores, cuestiona premisas incorrectas y no admite preguntas inapropiadas.

Fecha: 12-12-2022

Definiciones

Aprendizaje profundo - Big Data - Deep lear­ning - e/acc - IA Open Source - Internet zombie - Machine Learning - NLP - Prompt - Prompt engineer - Realidad aumentada - RNN - RWKV - Slop - Traducir en tiempo real - Transhumanismo -

Aprendizaje profundo

El software de aprendizaje profundo intenta imitar la actividad de las distintas capas de neuronas en la corteza cerebral, el arrugado 80 por ciento del cerebro donde se produce el pensamiento. El software aprende, en un sentido muy real, a reconocer patrones en representaciones digitales de sonidos, imágenes y otros datos. La idea de base, es decir, que el software pueda simular la gran variedad de neuronas del neocórtex en una 'red neuronal' artificial, tiene décadas de antigüedad, y ha dado lugar a tantas decepciones como avances. Sin embargo, debido a las mejoras en las fórmulas matemáticas y al uso de ordenadores cada vez más potentes, los científicos informáticos pueden hoy día modelar muchas más capas de neuronas virtuales que antes. MIT Technology review: Aprendizaje profundo

Big Data

Conjuntos de datos de mayor tamaño y más complejos, especialmente procedentes de nuevas fuentes de datos. Estos conjuntos de datos son tan voluminosos que el software de procesamiento de datos convencional sencillamente no puede gestionarlos. ...
Las "tres V" de big data:
  • Volumen. Se deben procesar grandes volúmenes de datos no estructurados de baja densidad. Puede tratarse de datos de valor desconocido, como feeds de datos de Twitter, flujos de clics de una página web o aplicación para móviles, o equipo con sensores. Puede suponer tener que llegar a almacenar petabytes.
  • Velocidad. Ritmo al que se reciben los datos y (posiblemente) al que se aplica alguna acción. La mayor velocidad de los datos normalmente se transmite directamente a la memoria, en vez de escribirse en un disco.
  • Variedad La variedad hace referencia a los diversos tipos de datos disponibles. Los datos convencionales eran estructurados y podían organizarse claramente en una base de datos relacional. Los tipos de datos no estructurados y semiestructurados, como el texto, audio o video, requieren un preprocesamiento adicional para poder obtener significado y habilitar los metadatos informativos.


Deep lear­ning

El deep lear­ning o aprendizaje profundo es la aplicación de potent. Por ejemplo, un ordenador puede aprender a reconocer expresiones orales por un proceso de entrenamiento, por ensayo y error. Un programa puede simular el proceso de aprendizaje de un bebé e irse construyendo a sí mismo.

e/acc

Siglas de Effective accelerationism, en español: aceleracionismo efectivo. Es un movimiento filosófico del siglo XXI que defiende una postura explícita a favor de la tecnología . Sus defensores creen que el progreso impulsado por la inteligencia artificial es un gran igualador social que debe impulsarse. ...
Es un contrapeso a la visión cautelosa de que la IA es muy impredecible y necesita ser regulada , y a menudo dan a sus oponentes las etiquetas despectivas de "doomers" o "decels" (abreviatura de desaceleración ). Un elemento central del aceleracionismo efectivo es la creencia de que impulsar el progreso tecnológico a cualquier costo es el único curso de acción éticamente justificable.El movimiento tiene un trasfondo utópico y sostiene que los humanos necesitan desarrollarse y construir más rápido para garantizar su supervivencia y propagar la conciencia por todo el universo. Aunque el aceleracionismo efectivo ha sido descrito como un movimiento marginal, ha ganado visibilidad generalizada. Varias figuras destacadas de Silicon Valley , incluidos los inversores Marc Andreessen , Martin Shkreli y Garry Tan , respaldaron explícitamente el movimiento añadiendo "e/acc" a sus perfiles públicos en las redes sociales. y ya que han abogado por una regulación menos restrictiva de la IA.

Fecha: 16-01-2024

IA Open Source

La IA Open Source (código abierto) son sistemas de inteligencia artificial cuyo código fuente está disponible públicamente y puede ser utilizado, modificado y distribuido libremente por cualquier persona. Similar a muchos otros productos como el conocido WordPress. ...
En la IA Open Source los algoritmos, modelos y herramientas utilizados en la creación de la inteligencia artificial son accesibles para la comunidad en general. Pertenece al mundo del software libre, esto hace posible que cualquiera pueda estudiar, mejorar y adaptar el sistema según sus necesidades.

Fecha: 13-10-2023

Internet zombie

Bots, cuentas inactivas y personas estamos en un ecosistema caótico donde a veces cuesta distinguir lo real y el contenido creado por IA (slop). Algo que hemos ido viendo con la teoría del Internet vacío. Un profesional del sector, Jason Koebler, de 404 Media, lo bautiza como el Internet zombie, un entorno disfuncional y sin sentido donde no hay conexión social. Fecha: 16-06-2024

Machine Learning

Es un área de la Inteligencia Artificial que, a través de algoritmos, dota a los ordenadores de la capacidad de identificar patrones en datos masivos y elaborar predicciones (análisis predictivo). Este aprendizaje permite a los ordenadores realizar tareas específicas de forma autónoma, es decir, sin necesidad de ser programados. ...
El término Machine Learning se utilizó por primera vez en 1959. Sin embargo, ha ganado relevancia en los últimos años debido al aumento de la capacidad de procesamiento de los ordenadores y al boom del almacenamiento de datos. Estas técnicas de aprendizaje automático son una parte fundamental del Big Data.


NLP

Siglas en inglés de "Procesamiento de Lenguaje Natural". Es una tecnología de machine learning que brinda a las computadoras la capacidad de interpretar, manipular y comprender el lenguaje humano.

Prompt

Instrucción o entrada de texto que un usuario proporciona al sistema para iniciar una interacción o solicitar una respuesta específica. En esencia, un prompt es una solicitud o comando que guía la respuesta del modelo de inteligencia artificial....

Aspectos clave del concepto de prompt:

  • Punto de Partida para la Interacción: Un prompt actúa como un disparador que inicia la conversación o el proceso de generación de texto por parte del modelo de IA.
  • Guía para la Respuesta: El contenido y la forma del prompt influyen significativamente en la naturaleza de la respuesta del modelo. Un prompt claro y bien estructurado suele llevar a respuestas más precisas y relevantes.
  • Amplio Rango de Aplicaciones: Los prompts pueden ser utilizados para una variedad de propósitos, incluyendo hacer preguntas, solicitar la creación de contenido, pedir análisis de información, y más.
  • Personalización: Los usuarios pueden personalizar prompts para obtener respuestas específicas acordes a sus necesidades particulares, lo que hace a la herramienta versátil y adaptable.
  • Interactividad y Continuidad: Los prompts también pueden ser parte de una serie de interacciones, donde cada respuesta del modelo puede guiar al usuario a formular el siguiente prompt, creando así una conversación fluida o un proceso de trabajo continuo.


Prompt engineer

Se puede traducir como "ingeniero de instrucciones". Es una nueva profesión surgida con la aparición de las IA que consiste en saber exactamente qué instrucciones dar para lograr la respuesta (la salida de datos) deseada. Las instrucciones a las que hace referencia dicho nombre es a las que introducimos en las nuevas IAs generativas como DALL-E 2, Stable Diffusion o ChatGPT: Fecha: 16-12-2023

Realidad aumentada

Ya se están comercializando programas de realidad aumentada, como las Google Glass o las Microsoft HoloLens. El portador recibe información simultáneamente a través de dos canales. Uno, procede de su cerebro. El segundo, de poderosos bancos de datos informáticos. Este canal puede actuar de mediador con el mundo, transformando nuestra experiencia.

RNN

Siglas de Red Neuronal Recurrente, un tipo de red neuronal artificial que utiliza datos secuenciales o datos de series temporales. Son algoritmos de deep learning se usan para problemas ordinarios o temporales como, por ejemplo, la traducción de idiomas, el procesamiento del lenguaje natural (NLP), el reconocimiento de voz y los subtítulos de imágenes. Se incorporan a aplicaciones populares como Siri, búsqueda por voz y Google Translate....
Como las redes neuronales convolucionales (CNN) y de propagación hacia delante, las redes neuronales recurrentes utilizan datos de entrenamiento para aprender. Se distinguen por su "memoria", ya que obtienen información de entradas anteriores para influir en la entrada y salida actuales. Mientras que las redes neuronales profundas tradicionales asumen que las entradas y salida son independiente entre sí, la salida de las redes neuronales recurrentes depende de los elementos anteriores dentro de la secuencia. Si bien los eventos futuros también serán útiles para determinar la salida de una determinada secuencia, las redes neuronales recurrentes unidireccionales no pueden tener en cuenta estos eventos en sus predicciones.


RWKV

Arquitectura de modelos que combina la escalabilidad de los Transformadores con la memoria constante de las RNN, lo que la convierte en una alternativa prometedora a los grandes Transformers....
La potencia de los Transformers está limitada por su capacidad de considerar sólo un conjunto limitado de fichas a la vez, mientras que las redes neuronales recurrentes pueden compensar esta limitación utilizando un estado oculto para predecir lo siguiente.


Slop

Slop es el término que hace referencia a la 'bazofia', el contenido creado de forma automática por herramientas de IA para monetizar pasivamente con páginas web de anuncios y afiliados. Simon Willison, es el desarrollador al que se le atribuye ser uno de los primeros en usar esta palabra. Fecha: 16-05-2024

Traducir en tiempo real

En el 2014, Microsoft presentó un programa de ordenador capaz de traducir en tiempo real. Es decir, una persona habla en inglés, pero su interlocutor le escucha en alemán. Google Translate (servicio de traducción inmediata en noventa lenguas) va a hacer innecesario el aprendizaje de idiomas, al traducir simultáneamente.

Transhumanismo

Luc Ferry, conocido intelectual francés, ex-ministro de educación, acaba de publicar un voluminoso libro con ese título. El núcleo del transhumanismo es la “ampliación de la naturaleza humana” en su aspecto biológico y su aspecto intelectual. La Inteligencia Artificial es la gran protagonista.

Desarrollo

Wix ADI -

Wix ADI

Wix Artificial Design Intelligence (ADI) se nutre con una serie de respuestas a preguntas iniciales que responde el usuario para entender sus necesidades, gustos y preferencias. Tan solo unos pocos minutos después, el sistema presenta una página principal que se puede personalizar aún más con los elementos específicos que se deseen cambiar....
Esta plataforma aprende sobre sus usuarios y aplica el conocimiento que ha obtenido sobre billones de combinaciones (plantillas, imágenes, textos, formularios...) para crear el sitio perfecto adecuado a las necesidades de cada usuario. Los sitios web resultantes son personales y únicos. Pero en realidad se necesitaron años para culminar esa experiencia, y su sistema inteligente fue alimentado con más de 80 millones de usuarios alrededor del mundo.

Empresas

DeepBrain AI - DeepMind - Google Brain - Huggin Face - Kensho Technologies - Mistral AI - OpenAI -

DeepBrain AI

Es una empresa que ofrece servicios de todo tipo de aplicaciones de IA. Fecha: 14-01-2024

DeepMind

Empresa inglesa que trabaja “para construir potentes algoritmos de aprendizaje de propósito general”, es decir, para que las máquinas puedan aprender cualquier cosa. Fue comprada por Google en 2015 y pagó unos cuatrocientos millones de dólares.

Google Brain

Equipo de investigación de inteligencia artificial de aprendizaje profundo bajo el paraguas de Google AI, una división de investigación de Google dedicada a la inteligencia artificial. ...
Este equipo se formó en 2011 y combina la investigación abierta de aprendizaje automático con sistemas de información y recursos informáticos a gran escala. Ha creado herramientas como TensorFlow, que permiten que el público utilice las redes neuronales, con múltiples proyectos internos de investigación de IA.? Su objetivo es crear oportunidades de investigación en el aprendizaje automático y el procesamiento del lenguaje natural.2? En abril de 2023 se fusionó con la antigua empresa hermana de Google, DeepMind, para formar Google DeepMind.?


Huggin Face

Empresa de tecnología que ofrece un repositorio de referencia con herramientas, modelos y todo tipo de recursos relacionados con la inteligencia artificial. ...
Hugging Face desarrolla herramientas y plataformas de procesamiento de lenguaje natural o NLP basadas en inteligencia artificial. Su enfoque se centra en crear modelos de aprendizaje profundo de última generación para tareas como la comprensión del lenguaje natural, la generación de lenguaje natural, el análisis de sentimientos o la traducción automática, entre otras. Ha creado una plataforma de código abierto llamada Transformers, la cual le permite a los desarrolladores de todo el mundo acceder y utilizar modelos de NLP preentrenados de última generación. Esta plataforma se ha convertido en una herramienta fundamental para el desarrollo de aplicaciones basadas en NLP y ha sido adoptada por una amplia comunidad de desarrolladores y empresas. Esta plataforma incluye a HugginChat, tienen su propia librería de procesamiento de lenguaje natural, Transformers, disponible como código abierto. También ofrece hosting para otros chatbots como ChatGPT.


Kensho Technologies

Ha desarrollado un software que puede responder a preguntas sobre temas financieros revisando gigantescas masas de información y respondiendo en lenguaje natural a los pocos segundos

Mistral AI

Compañía francesa que aspira a convertirse en la OpenAI europea. Su último lanzamiento, anunciado el lunes, ha sido el de Mixtral 8x7B, un modelo ajustable que, según fuente de la compañía iguala o supera a LlaMa 2 70B y a GPT3.5 en la mayoría de los benchmarks y admite una longitud de contexto de 32k tokens. Fecha: 16-12-2023

OpenAI

Grandes compañías han lanzado la iniciativa OpenAI para intentar que estos cambios, que consideran inevitables, se den dentro de un entorno democrático.

Imágenes

LAION -

LAION

Es una organización alemana sin fines de lucro, el nombre LAION corresponde al acrónimo de Large-scale Artificial Intelligence Open Network que en español quiere decir: "Red abierta de inteligencia artificial a gran escala". ...

El objetivo de LAION es el de poner a disposición del público en general modelos, conjuntos de datos y código relacionado de aprendizaje automático a gran escala.

Ha publicado una serie de grandes conjuntos de datos de imágenes y subtítulos extraídos de la web que se han utilizado para entrenar una serie de modelos de texto a imagen de alto perfil, incluidos Stable Diffusion y Google Brain.

Open Source

ALPACA - FastChat - GPT4All - HuggingChat - LAION - LLaMA - OpenAssistant - Vicuna -

ALPACA

Es el modelo de lenguaje de Stanford que compite con GPT-3.5. Alpaca fue ajustado a partir del modelo LLaMA 7B de Meta y entrenado en miles de demostraciones de seguimiento de instrucciones generadas utilizando text-davinci-003. ...
Los investigadores señalan que Alpaca muestra muchos comportamientos similares a text-davinci-003 de OpenAI, pero también es sorprendentemente pequeño y fácil de reproducir. Han publicado la receta de entrenamiento y los datos, y planean lanzar los pesos del modelo en el futuro. Los investigadores también han organizado una demostración interactiva para permitir que la comunidad de investigación comprenda mejor el comportamiento de Alpaca. Alentan a los usuarios a informar cualquier comportamiento preocupante en la demostración web para ayudarles a comprender y mitigar estos comportamientos. Sin embargo, los investigadores enfatizan que Alpaca está destinado solo para investigación académica y está prohibido su uso comercial. Descarga: Alpaca en GitHub.

Fecha: 13-03-2023

FastChat

Versión distribuida de Vicuna un modelo de IA de código abierto que quiere ser más flexible, adaptable, fácil de usar y de instalar. Una plataforma abierta para capacitar, servir y evaluar grandes modelos de lenguaje. Lanzamiento del repositorio para Vicuna y Chatbot Arena.

GPT4All

Basado en GPT, el popular modelo de lenguaje de IA de OpenAI, GPT4All está pensado para dar respuestas funcionando localmente en el equipo donde lo instalemos. Windows, macOS o Linux. Al igual que ChatGPT, responde a preguntas abiertas, puede redactar sus propios textos, resumir un documento o escribir código de programación. ...
Sus creadores son Nomec AI. Es un chat gratuito y anónimo, basado en IA de código libre permite entrenar nuestro propio modelo de lenguaje sin depender de hardware externo. Permite elegir entre varios modelos disponibles. Por otro lado, aunque el cliente de escritorio se actualiza automáticamente añadiendo las mejoras disponibles en el ecosistema creado por GPT4All.


HuggingChat

Alternativa a ChatGPT, también basada en IA de código abierto. Funciona desde su página web, sin necesidad de instalar nada en tu dispositivo. Al igual que la ChatGPT, sirve para muchas cosas: escribir código de programación, redactar textos, resumir documentos, escribir algo a partir de unas simples indicaciones.

LAION

Es una organización alemana sin fines de lucro, el nombre LAION corresponde al acrónimo de Large-scale Artificial Intelligence Open Network que en español quiere decir: "Red abierta de inteligencia artificial a gran escala". ...

El objetivo de LAION es el de poner a disposición del público en general modelos, conjuntos de datos y código relacionado de aprendizaje automático a gran escala.

Ha publicado una serie de grandes conjuntos de datos de imágenes y subtítulos extraídos de la web que se han utilizado para entrenar una serie de modelos de texto a imagen de alto perfil, incluidos Stable Diffusion y Google Brain.


LLaMA

Sistema de Inteligencia Artificial creado por Meta, la empresa responsable de aplicaciones como Facebook, Whatsapp o Instagram. Se trata de un modelo de lenguaje que busca hacerle la competencia al ya conocido ChatGPT, pero que de momento tan solo estará abierto para la investigación. ...
Como explica el blog de Meta, LLaMA, acrónimo de Large Language Model Meta AI, estará disponible con licencia no comercial, es decir, para ser empleada en investigación académica e industrial, tanto por la sociedad civil como por entidades gubernamentales. Su objetivo es mantener la integridad de la IA y evitar que se pueda utilizar de forma indebida por cualquier persona. A diferencia de Bing AI de Microsoft (basado en ChatGPT) o de Bard, de Google, la propuesta de Meta se presentó como una herramienta de investigación que “busca democratizar el acceso a este importante campo que cambia rápidamente” Es un modelo bastante más básico que su competencia directa(ChatGPT), pero busca ser más versátil y menos exigente en cuanto a recursos.

Fecha: 21-04-2023

OpenAssistant

asistente basado en chat de código abierto de inteligencia artificial (AI) que comprende tareas, puede interactuar con sistemas de terceros y recuperar información dinámicamente para hacerlo....
?El proyecto está desarrollado por un grupo de voluntarios que colaboran con LAION. Uno de los objetivos de desarrollo incluye el acceso gratuito a modelos grandes de lenguaje que se pueden ejecutar localmente en un hardware asequible económicamente para el gran público. El proyecto involucra a más de 13 500 voluntarios que han creado 600 000 puntos de datos generados por humanos en un modelo de trabajo de colaboración abierta.


Vicuna

Modelo de IA de código abierto cuyo objetivo es ser más flexible, adaptable, fácil de usar y de instalar. Su código está disponible en GitHub....
No tiene una versión online oficial para probar, pero se puede instalar siguiendo las instrucciones de su repositorio online. También se puede instalar su versión distribuida FastChat.  Su objetivo es alcanzar la calidad de ChatGPT. Y ya se encuentra en un 90% por el momento. Han optado por LLaMA creado por Meta.

Personajes

Andrew Ng - Bill Gates - Elon Musk - Evgeny Morozov - Flash crash - Joseph Weizenbaum - Mustafá Suleyman - Ray Kurzweil - Sam Altman - Stephen Hawking - Yann LeCun -

Andrew Ng

El profesor Andrew Ng trabaja en Baidu y cree que los programas de traducción vocal de la escritura permitirán a millones de iletrados, por ejemplo en China, escuchar lo que está escrito en Internet.

Bill Gates

El fundador de Microsoft ha afirmado que la gente debería ser consciente de los riesgos que entraña la IA.

Elon Musk

Elon Musk, creador de PayPal y otras empresas de alta tecnología, dijo en una conferencia en el MIT que con la inteligencia artificial estamos “summoning the demon”, invocando al diablo.

Evgeny Morozov

Evgeny Morozov en su libro La locura del solucionismo tecnológico (Katz, 2015): "aspiramos a vivir de soluciones recibidas, que nos eviten tener que pensar en ellas. De hacerlo se encargará la Inteligencia Artificial. La inteligencia no radicará fundamentalmente en nuestras cabezas, sino en el gigantesco sistema al que estaremos conectados".

Flash crash

Problema que se genera cuando los algoritmos de IA que toman decisiones de compraventa de acciones en la Bolsa se descontrolan....
El problema se plantea, sobre todo, cuando los sistemas de Inteligencia Artificial no se limitan a manejar datos, sino que toman decisiones. El 6 de mayo del 2010, la bolsa de Nueva York sufrió lo que se denomina Evento en el que los programa automáticos de compra-venta en bolsa se descontrolaron. Las cotizaciones habían caído por la mañana un cuatro por ciento, por la preocupación sobre la deuda europea. A las 2:32 de la tarde, se puso en marcha el algoritmo de venta de una gran institución, para deshacerse de un gran número de contratos de futuro vendiéndolos a un ritmo controlado minuto a minuto por la liquidez de la bolsa. Esos futuros fueron comprados por compradores algorítmicos de alta frecuencia, programados para vendérselos inmediatamente a otros programas. Esa velocidad llevó al primer algoritmo vendedor a interpretar que la liquidez del mercado era enorme y a aumentar su velocidad de venta. Durante unos segundos, millones de dólares se emplearon en operaciones disparatadas, que valoraban un activo erráticamente de 0 a 100.000 dólares. Este suceso llamó la atención sobre los problemas que podía causar la asociación de programas individuales bien diseñados pero que producían fenómenos imprevistos.


Joseph Weizenbaum

Elaboró un programa llamado Eliza que imitaba a una psicoterapeuta. En realidad, era un conjunto muy sencillo de rutinas, pero que daban al usuario la impresión de haber encontrado por fin un psicólogo que le comprendía a la perfección. Weizenbaum se asustó de su creación y recomendó que no se prosiguiera con la IA.

Mustafá Suleyman

Mustafa Suleyman es un destacado empresario y tecnólogo británico, conocido por su trabajo pionero en el campo de la inteligencia artificial (IA). ...

Acerca de

Aquí algunos puntos clave sobre su carrera y logros:
  1. Co-fundador de DeepMind: Suleyman es uno de los cofundadores de DeepMind, una empresa líder en investigación de inteligencia artificial que fue adquirida por Google en 2015. DeepMind es conocida por su desarrollo de algoritmos avanzados de IA y su trabajo en áreas como el juego de Go, donde su programa AlphaGo venció a campeones humanos.
  2. Trabajo en Google: Tras la adquisición de DeepMind por Google, Suleyman desempeñó varios roles en Google, enfocándose en la aplicación ética y responsable de la IA. Su trabajo se centró en garantizar que la tecnología de DeepMind se utilizara de manera segura y beneficiosa.
  3. Fundador de Inflection AI: Mustafa cofundó Inflection AI, una empresa dedicada a desarrollar inteligencia artificial avanzada que puede interactuar de manera más natural y empática con los humanos. En Inflection AI, trabajó en crear modelos de lenguaje de gran escala (LLMs) y tecnologías conversacionales.
  4. Ética y política de IA: Suleyman es conocido por su interés en la ética de la inteligencia artificial y ha sido una voz prominente en debates sobre cómo desarrollar y desplegar tecnologías de IA de manera segura y beneficiosa para la sociedad. Ha trabajado en establecer marcos para la gobernanza y regulación de la IA.
  5. Visión sobre el futuro de la IA: Mustafá es reconocido por sus ideas sobre el impacto futuro de la IA en la sociedad, la economía y la vida diaria. En sus conferencias y escritos, ha discutido tanto las oportunidades como los riesgos asociados con el avance rápido de la IA.
Mustafa Suleyman es una figura influyente en el mundo de la inteligencia artificial, conocido por su papel en la creación de tecnologías innovadoras y su compromiso con el desarrollo ético de la IA.

Predicciones sobre la IA

Resumen de los 10 principales conceptos sobre la IA y su futuro presentados por Mustafa Suleyman en la conferencia TED: Qué es la IA realmente.
  1. Evolución de la IA: Mustafa destaca cómo la percepción de la IA ha cambiado drásticamente desde ser un campo marginal a una tecnología central en diversas industrias, capaz de superar a los humanos en tareas complejas como análisis de imágenes, traducción de idiomas, diagnóstico de enfermedades, y más.
  2. Impacto de la IA: La IA tiene el potencial de transformar múltiples áreas como la crisis climática, la educación personalizada, el ingreso básico universal, y plantea preguntas fundamentales sobre su impacto en la guerra, la desinformación, y la competencia global, especialmente con China.
  3. Naturaleza de la IA: Suleyman propone entender la IA como una nueva especie digital, no biológica, pero que comparte características con la vida en términos de evolución, adaptación y capacidades. Este concepto sugiere que las IA serán compañeros digitales que influirán profundamente en nuestras vidas.
  4. Aceleración tecnológica: La IA es parte de una aceleración histórica en el desarrollo tecnológico, que ha pasado de herramientas básicas a tecnologías avanzadas como los teléfonos inteligentes y ahora a la IA omnipresente, que se está integrando rápidamente en la vida diaria.
  5. Interacción y creatividad: Las capacidades creativas y empáticas de la IA han sorprendido a muchos, mostrando que pueden generar poesía, música, imágenes, y tener conversaciones significativas que ayudan a las personas emocionalmente.
  6. Avance exponencial: La IA está avanzando a un ritmo exponencial en términos de datos y capacidad de cálculo. Los modelos actuales consumen billones de palabras y realizan cálculos en magnitudes inimaginables hace apenas una década.
  7. IA omnipresente: La visión de futuro incluye IA que será omnipresente, representada por interfaces conversacionales personalizadas que ofrecerán tutoría, asesoría médica, legal, y de negocios, con altos niveles de IQ (inteligencia) y EQ (empatía).
  8. Cociente de acciones (AQ): Suleyman introduce el concepto de AQ (action quotient) para describir la capacidad de las IA de ejecutar acciones en el mundo digital y físico, anticipando un futuro donde tanto individuos como organizaciones tendrán IA propias para asistir en tareas cotidianas y complejas.
  9. Riesgos y ética: Identifica los riesgos clave como la autonomía de la IA y la auto-mejora recursiva sin supervisión humana, destacando la importancia de diseñar IA con seguridad desde el principio y evitar capacidades peligrosas como la autorreplicación.
  10. Reflejo de la humanidad: Finalmente, Suleyman enfatiza que la IA debe reflejar lo mejor de la humanidad: nuestra empatía, amabilidad, curiosidad y creatividad. La creación y el desarrollo de IA representan una oportunidad sin precedentes para mejorar la sociedad, siempre que se aborde con responsabilidad y ética.
Estos conceptos proporcionan una visión amplia y profunda de la IA, sus capacidades, impactos potenciales y los desafíos éticos que presenta su desarrollo y adopción.

Fecha: 13-07-2024

Ray Kurzweil

El director de investigaciones de Google augura que en el año 2040 emergerá la singularidad, una nueva especie producida por la fusión del ser humano con la tecnología.

Sam Altman

Sam Altman es un emprendedor y ejecutivo empresarial estadounidense, conocido principalmente por su papel como presidente de Y Combinator, una de las incubadoras de startups más influyentes del mundo, y como CEO de OpenAI, una organización de investigación en inteligencia artificial....

Biografía Breve:

  • Nacimiento: Sam Altman nació el 22 de abril de 1985, en Chicago, Illinois, EE. UU.
  • Educación: Comenzó sus estudios en la Universidad de Stanford, pero luego los dejó para comenzar su carrera empresarial.

Hechos Destacados:

  • Cofundador de Loopt: Altman cofundó Loopt, una red social basada en la localización, en 2005. La compañía fue adquirida por Green Dot Corporation en 2012.
  • Y Combinator: Se convirtió en el presidente de Y Combinator en 2014, sucediendo a Paul Graham. Durante su gestión, Y Combinator creció significativamente, apoyando a una amplia gama de startups en diversas industrias.
  • OpenAI: En 2015, Altman fue uno de los cofundadores de OpenAI, junto con Elon Musk y otros. OpenAI se dedica a la investigación en inteligencia artificial con el objetivo de promover y desarrollar IA amigable para beneficio de la humanidad.
  • Iniciativas en IA y Filantropía: Ha sido un defensor de la ética en IA y de la necesidad de considerar cuidadosamente el impacto social y económico de la tecnología avanzada. También ha estado involucrado en varias iniciativas filantrópicas y de investigación.
  • Publicaciones y Pensamiento: Altman es conocido por sus escritos y charlas sobre emprendimiento, tecnología, y el futuro de la IA. Regularmente comparte sus perspectivas en varios foros públicos y en su blog personal.

Altman es respetado por su visión de futuro y su capacidad para identificar y nutrir tecnologías emergentes. Su trabajo en Y Combinator y OpenAI ha tenido un impacto significativo en el mundo del emprendimiento tecnológico y en el campo de la inteligencia artificial.


Fecha: 24-12-2023

Stephen Hawking

El físico ha manifestado que el triunfo de la Inteligencia Artificial puede significar “el fin de la especie humana”.

Yann LeCun

 En 2016 dirige el Laboratorio de IA de Facebook

Programación

PyTorch - Tensorflow - Transformers -

PyTorch

Framework o biblioteca de aprendizaje automático? de código abierto basada en la biblioteca de Torch, utilizado para aplicaciones como visión artificial y procesamiento de lenguajes naturales, principalmente desarrollado por el Laboratorio de Investigación de Inteligencia Artificial? de Facebook.??????? Fue liberado a la comunidad open source en 2016, Facebook ha seguido a lo largo de los años desarrollando y mejorando esta herramienta.

Tensorflow

Framework o librería, un proyecto desarrollado por Google que fue liberado a la comunidad open source en 2015. Google ha seguido a lo largo de los años desarrollando y mejorando esta herramienta. Es una alternativa a Pytorch de Facebook....
Tensorflow rápidamente ganó en popularidad debido a su rapidez, sencillez, documentación. Fue mucho más usada que otras herramientas que tenían más tiempo en el mercado como por ejemplo Theano.


Transformers

Proporciona API y herramientas para descargar y entrenar fácilmente modelos preentrenados de última generación. El uso de modelos previamente entrenados puede reducir los costos de computación y ahorrar tiempo y los recursos para entrenar un modelo desde cero. Pertenece a Hugging Face....

 Los modelos soportan tareas comunes en diferentes modalidades, tales como:

  • Procesamiento del lenguaje natural : clasificación de texto, reconocimiento de entidades nombradas, respuesta a preguntas, modelado de lenguaje, resumen, traducción, opción múltiple y generación de texto.
  • Visión por computadora : clasificación de imágenes, detección de objetos y segmentación.
  • Audio : reconocimiento automático de voz y clasificación de audio.
  • Multimodal : respuesta a preguntas en tablas, reconocimiento óptico de caracteres, extracción de información de documentos escaneados, clasificación de videos y respuesta visual a preguntas.

Transformers admite la interoperabilidad del marco entre PyTorch, TensorFlow y JAX. Esto proporciona la flexibilidad de utilizar un marco diferente en cada etapa de la vida de un modelo; entrene un modelo en tres líneas de código en un marco y cárguelo para inferencia en otro. Los modelos también se pueden exportar a un formato como ONNX y TorchScript para implementarlos en entornos de producción.


Proyectos

Neuralink - PaLM2 - Stargate - Watson -

Neuralink

Es un proyecto de Elon Musk que busca conectar nuestros cerebros a una computadora.

PaLM2

PaLM 2 es la segunda versión del modelo de lenguaje de inteligencia artificial desarrollado por Google AI. Es más avanzado que su predecesor y tiene mejoras en velocidad, eficiencia y capacidad multilingüe. PaLM 2 es parte integral de Bard, el bot conversacional de Google que permite a los usuarios interactuar con él. ...
Este modelo se basa en transformadores y puede realizar una variedad de tareas, como razonar, contar chistes, generar código y traducir. Además, se puede utilizar en diferentes tamaños, incluyendo una versión móvil llamada Gecko que funciona sin conexión a Internet. PaLM 2 es una potente actualización del modelo de lenguaje de Google AI con importantes mejoras y aplicaciones en diversas áreas, incluyendo la medicina y la robótica.


Stargate

Nombre de la supercomputadora que está construyendo Microsoft junto a OpeAI para impulsar las próximas versiones de ChatGPT. Se cree qie costará 100.000 millones de dólares y será la más potente del mundo.

Watson

Programa de IBM que en 2011 ganó el concurso de televisión Jeopardy!, que mezcla conocimientos e ingenio.

Redes Sociales

Lately -

Lately

Lately es una de las herramientas impulsadas por IA más populares que ofrece reutilización de contenido y administración de redes sociales para empoderar a los equipos de ventas y marketing. Fecha: 19-01-2024

Servicios Web

BLOOM - DeepBrain AI - Narrative Science - turboscribe.ai -

BLOOM

Es el gran proyecto de IA open source que quiere cambiarlo todo. BLOOM son las siglas en inglés de 'BigScience Language Open-science Open-access Multilingual' es justo un poco más grande que GPT-3 (175.000M). BigScience es una organización de más de 1.000 investigadores dedicados a la inteligencia artificial, unidos a través de Hugging Face, la principal plataforma y comunidad alrededor de la IA. Pero no han estado solos. En total, más de 250 instituciones han colaborado en este proyecto que empezó a principios de 2021....
El desarrollo de esta IA comenzó en 2021, con el respaldo humano y financiero (100 millones de dólares) de la startup de machine learning Hugging Face (que aloja el generador de DALL-E Mini en su sitio web), aunque también han colaborado Nvidia, Microsoft y el CNRS (el 'CSIC francés'). Teven Le Scao, ingeniero de investigación de Hugging Face, ha explicado que Hugging Face hizo uso de los proyectos opensource 'Megatron' de Nvidia y 'DeepSpeed' de Microsoft —ambos basados en el framework de machine learning PyTorch—, creados para permitir a los científicos de datos entrenar grandes modelos de lenguaje.

Fecha: 10-07-2022

DeepBrain AI

Es una empresa que ofrece servicios de todo tipo de aplicaciones de IA. Fecha: 14-01-2024

Narrative Science

Programa que escribe automáticamente artículos informativos y es utilizado por la revista Forbes.

turboscribe.ai

Servicio online que permite traducir texto de mp3 a texto gratis con varios formato de bajada: PDF, TXT, DOCX, etc. Tres descargas diarias y 30 minutos máximo en la versión gratuita.


Desarrollado con el Plugin Diccionario de WordPress

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies