OpenAI-AI se ha vuelto más potente y multimedia – t3n – pioneros digitales

Open AI GPT-4

El nuevo modelo de IA GPT-4 de OpenAI ya está aquí. (Imagen: OpenAI)

OpenAI lanzó oficialmente la última versión de su modelo de IA con GPT-4. Los usuarios premium de ChatGPT Plus ya pueden experimentar las capacidades adicionales. También se dice que Bing Bot de Microsoft se ejecuta en GPT-4.

El fin de semana pasado, el gerente alemán de Microsoft reveló la fecha de lanzamiento de GPT-4. ¿Es una coincidencia o no? ¡No importa! De todos modos, el sucesor de GPT-3 ya es oficial.



Acceda a GPT-4 a través de ChatGPT Plus o Bing

«Aquí está GPT-4, nuestro modelo más poderoso hasta el momento», anunció el jefe de OpenAI, Sam Altman. a través de Twitter. Los interesados ​​pueden usarlo a través de la API, pero deben colocarse en una lista de espera. Los suscriptores de ChatGPT Plus ya tienen acceso a GPT-4.

Microsoft revuelto Para iniciar el GPT-4 oficial No solo para felicitar a OpenAI, sino también Para confirmacionque algunos ya han asumido: «El nuevo Bing funciona con OpenAIs GPT-4».

Esto significa: cualquiera que haya utilizado el motor de búsqueda de Microsoft con Bing Bot basado en GPT AI en las últimas semanas ya ha tenido la oportunidad de probar una versión anterior de GPT-4. Hasta ahora, el chatbot impulsado por IA de Bing se ejecutaba bajo el título de lanzamiento GPT-3.5.



GPT-4 es más potente y creativo que GPT-3

Pero, ¿qué puede hacer realmente GPT-4? La mejor manera de ver qué tan poderoso es un sistema es compararlo con su predecesor. Mientras que GPT-3 funcionó con «solo» 175 mil millones de parámetros, GPT-4 tiene 100 billones de parámetros disponibles. Según los observadores, «un salto cuántico».

READ  Configure la pantalla de bloqueo y use herramientas interactivas › ifun.de

Se dice que GPT-4 es más creativo y mejor colaborando con los usuarios que sus predecesores. Esto debería abarcar desde la composición de canciones y la escritura de guiones hasta el aprendizaje del estilo de escritura para los usuarios.



El nuevo OpenAI AI reconoce contenido en imágenes

Sorprendentemente, GPT-4 ahora también interactúa con imágenes como entrada: reconoce y puede manejar el contenido que se muestra allí.

Ejemplo: una imagen que muestra muchos globos colgando de cuerdas. Cuando se le pregunta qué sucederá si corta las cuerdas, el sistema responde que los globos se irán volando.



Menos fake news y largas conversaciones

Además, GPT-4 puede procesar hasta 25.000 palabras de texto. GPT-3 máximo 3000 palabras. Esto permite que la IA cree contenido más largo y tenga conversaciones más largas. Además, GPT-4 también puede buscar documentos y luego analizar el contenido.

OpenAI también informó que GPT-4 ahora es más seguro en términos de contenido controvertido y noticias falsas. La nueva versión de IA tendrá un 82 % menos de probabilidades de responder a las solicitudes de contenido no permitido.

Además, GPT-4 tiene un 40 por ciento más de probabilidades de dar respuestas fácticas que GPT-3.5, según OpenAI, que ha utilizado clasificaciones internas para esto.



Sam Altman: GPT-4 todavía tiene errores

Queda por ver cuánto tiempo la IA seguirá produciendo insultos o noticias falsas. En cualquier caso, el fundador de OpenAI, Altman, advirtió que el nuevo modelo todavía tiene fallas y limitaciones.

Dall-E dibuja nuestras direcciones

Las limitaciones incluyen prejuicios sociales, las llamadas alucinaciones y solicitudes controvertidas, dice OpenAI. La compañía dice que está trabajando en eso.

READ  El nuevo Mac Life 04/2024 ya está aquí: Prueba Apple Vision Pro

«Todavía se siente más impresionante la primera vez que lo usa que después de haber pasado más tiempo con él», dice Altman.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *