OpenAI lanza GPT-4: ahora disponible en ChatGPT y Bing

OpenAI acaba de lanzar su último modelo de IA, GPT-4, que exhibe un rendimiento a nivel humano en varios puntos de referencia académicos y profesionales.

GPT-4 es un gran modelo multimodal que puede aceptar entradas de imágenes y texto y generar salidas de texto.

En este artículo, veremos las capacidades, las limitaciones y los riesgos que implica el uso de GPT-4.

Al final, comprenderá mejor el impacto potencial de GPT-4 y de lo que es y de lo que no es capaz.

Capacidades

Las capacidades de GPT-4 son una mejora con respecto al modelo anterior, GPT-3.5, en términos de confiabilidad, creatividad y manejo de instrucciones matizadas.

OpenAI probó el modelo en varios puntos de referencia, incluidos exámenes simulados diseñados para humanos, y descubrió que GPT-4 superó a los modelos de lenguaje grande existentes.

También funciona bien en otros idiomas además del inglés, incluidos los idiomas de bajos recursos como el letón, el galés y el swahili.

Entradas visuales

GPT-4 puede aceptar texto e imágenes como entrada, lo que lo hace capaz de generar salidas de texto basadas en entradas que consisten tanto en texto como en imágenes.

Si bien la capacidad de entrada visual del modelo aún se encuentra en la etapa de vista previa de investigación, ha mostrado capacidades similares a las entradas de solo texto.

maniobrabilidad

OpenAI ha estado trabajando en cada aspecto del plan descrito en su correo sobre la definición del comportamiento de las IA, incluida la capacidad de dirección.

Los desarrolladores ahora pueden prescribir el estilo y la tarea de su IA describiendo las instrucciones en el mensaje del «sistema».

Los usuarios de API pueden personalizar la experiencia de sus usuarios dentro de los límites, lo que permite una personalización significativa.

Limitaciones

GPT-4 no es perfecto y tiene limitaciones similares a los modelos GPT anteriores.

Todavía puede «alucinar» hechos y cometer errores de razonamiento, por lo que se debe tener cuidado al usar los resultados del modelo de lenguaje, particularmente en contextos de alto riesgo.

GPT-4 no conoce los eventos posteriores a septiembre de 2021, lo que puede hacer que cometa errores de razonamiento simples y acepte afirmaciones falsas como verdaderas.

También puede fallar en problemas desafiantes como los humanos, como introducir problemas de seguridad en su código.

GPT-4 puede hacer predicciones seguras pero incorrectas y no siempre verifica su trabajo con cuidado.

Curiosamente, el modelo base es bueno para predecir la precisión de sus respuestas, pero esta capacidad se reduce después del entrenamiento posterior.

Riesgos y mitigaciones

Si bien las capacidades de GPT-4 son significativas, presenta nuevos riesgos, como generar consejos dañinos, código con errores o información inexacta.

OpenAI ha estado trabajando para mitigar estos riesgos, interactuando con más de 50 expertos para probar el modelo de forma adversaria y recopilando datos adicionales para mejorar la capacidad de GPT-4 para rechazar solicitudes peligrosas.

Como resultado, OpenAI ha realizado muchas mejoras en GPT-4 para que sea más seguro que GPT-3.5.

GPT-4 tiene un 82 % menos de probabilidades de brindar contenido inapropiado que la versión anterior, y sigue mejor las políticas con respecto a temas delicados como consejos médicos y autolesiones.

Si bien OpenAI hizo que el modelo fuera más resistente al mal comportamiento, aún es posible generar contenido que vaya en contra de las reglas de uso.

GPT-4 puede ser útil o dañino para la sociedad, dice OpenAI, por lo que está trabajando con otros investigadores para comprender los impactos potenciales.

Proceso de entrenamiento

Al igual que los modelos GPT anteriores, el modelo base GPT-4 se entrenó para predecir la siguiente palabra en un documento utilizando datos disponibles públicamente y datos con licencia de OpenAI.

Ajustar el comportamiento del modelo mediante el aprendizaje de refuerzo con retroalimentación humana (RLHF) lo alinea con la intención del usuario dentro de las medidas de seguridad.

Escalado predecible

Un enfoque importante del proyecto GPT-4 ha sido la creación de una pila de aprendizaje profundo que escala de manera predecible.

OpenAI ha desarrollado infraestructura y optimización con un comportamiento predecible en múltiples escalas y puede predecir con precisión la pérdida final de GPT-4 durante el entrenamiento.

Disponibilidad

microsoft confirma la nueva experiencia de búsqueda de Bing ahora se ejecuta en GPT-4.

Aunque tiene un límite de uso, también puede acceder a GPT-4 con una suscripción a ChatGPT Plus.

OpenAI puede ajustar el límite de uso según la demanda y el rendimiento del sistema. La compañía está considerando agregar otro nivel de suscripción para permitir un mayor uso de GPT-4.

Para acceder a la API de GPT-4, debe registrarse en el lista de espera.

Conclusión

La creación de GPT-4 marca un hito importante en los esfuerzos de OpenAI para ampliar el aprendizaje profundo.

Si bien es imperfecto, ha exhibido un desempeño a nivel humano en varios puntos de referencia académicos y profesionales, lo que lo convierte en una herramienta poderosa.

Sin embargo, se debe tener cuidado al usar los resultados del modelo de lenguaje en contextos de alto riesgo.

OpenAI ha estado trabajando para mitigar los riesgos y crear una pila de aprendizaje profundo que se escale de manera predecible, lo que será fundamental para los futuros sistemas de IA.


Imagen destacada: Muhammad S0hail/Shutterstock

Fuente: IA abierta

#OpenAI #lanza #GPT4 #ahora #disponible #ChatGPT #Bing