La reciente prohibición de ChatGPT en Italia es solo uno de los muchos desafíos legales potenciales que enfrenta OpenAI.
Mientras la Unión Europea trabaja para aprobar una Ley de Inteligencia ArtificialEstados Unidos define un Declaración de derechos de IAy el Reino Unido recomienda a las agencias existentes regular la IAlos usuarios de ChatGPT han presentado quejas a nivel mundial contra OpenAI por posibles problemas de seguridad.
OpenAI y preocupaciones de seguridad global
El Centro de IA y Política Digital presentó una queja con la Comisión Federal de Comercio para evitar que OpenAI desarrolle nuevos modelos de ChatGPT hasta que se establezcan medidas de seguridad.
La italiana Garante lanzó un investigación en OpenAI en una violación de datos reciente y la falta de verificación de edad para proteger a los usuarios más jóvenes del contenido de IA generativo inapropiado durante el registro.
La Comisión Irlandesa de Protección de Datos planea coordinar con el Garante italiano y la comisión de protección de datos de la UE para determinar si ChatGPT ha violado las leyes de privacidad.
De acuerdo a Reuterslos reguladores de privacidad en Suecia y España no tienen planes de investigar ChatGPT ahora, pero pueden hacerlo en el futuro si los usuarios presentan quejas contra la tecnología de IA.
Y esas son solo algunas de las quejas, investigaciones y comentarios recientes de varios países sobre la responsabilidad de las empresas de IA.
Mientras tanto, en Alemania, Ulrich Kelber, portavoz del Comisionado Federal de Protección de Datos de la región, dicho podría seguir una prohibición similar a las de otras naciones si OpenAI viola GDPR o políticas similares.
Sin embargo, Volker Wissing, Ministro de Transporte e Infraestructura Digital de Alemania, indicó que una prohibición no es el mejor enfoque.
“No necesitamos una prohibición de las aplicaciones de IA, sino formas de garantizar valores como la democracia y la transparencia”, dice Wissing.
Canadá también parece estar haciendo lo mismo después de que su Oficina del Comisionado de Privacidad lanzó un investigación en una queja contra ChatGPT que recopila datos personales sin consentimiento.
Y en Francia, Jean-Noël Barrot, Ministro de Transición Digital y Telecomunicaciones, comentado en la ola de emoción de la IA, seguida por el miedo de la IA. El plan del país, al parecer, es dominar la tecnología de inteligencia artificial y desarrollar modelos y tecnologías que defiendan los valores franceses.
¿Los países prohibirán ChatGPT de forma permanente?
OpenAI publicó recientemente unas preguntas frecuentes para Usuarios italianos y reafirmó su compromiso de crear sistemas que sean seguros, precisos y privados.
Pero, ¿cuáles son las posibilidades de que las investigaciones contra OpenAI resulten en una prohibición permanente de su tecnología en Italia y otros países?
Teniendo en cuenta que un juez en Colombia recientemente usó ChatGPT para ayudar en un fallo judicial y otro en India lo usó para decidir sobre la libertad bajo fianza, OpenAI tiene algunas probabilidades a su favor.
ChatGPT+ con el modelo GPT-4 ofrece puntos sorprendentemente equilibrados sobre el impacto de su tecnología y los riesgos que plantea.
En respuesta al mensaje, «¿Debería un país como Italia prohibir ChatGPT por problemas de manejo de datos?», ChatGPT+ responde:
“Privacidad de datos: es esencial que los sistemas de IA cumplan con las normas de protección de datos, como el Reglamento General de Protección de Datos (RGPD) de la UE. Es crucial asegurarse de que ChatGPT siga estas reglas y respete la privacidad del usuario. Si hay dudas con respecto al manejo de datos, valdría la pena investigar si OpenAI cumple con las regulaciones necesarias”.
La respuesta continúa con una descripción general de los beneficios, la ética y el sesgo, la competitividad y las alternativas de la IA.
Por supuesto, si un país no tiene acceso a ChatGPT, algunos usuarios pueden acceder mediante un servicio de red privada virtual (VPN). Google Trends muestra que Italia tuvo un pico en las búsquedas de VPN a principios de abril, coincidiendo con la prohibición de ChatGPT.
¿Pueden las demandas contra la tecnología OpenAI afectar a los usuarios?
¿Son los usuarios de OpenAI legalmente responsables de los problemas que surjan del uso y el resultado de sus herramientas? Depende, según OpenAI Condiciones de uso.
Si los usuarios violan los términos o políticas de OpenAI al usar herramientas como ChatGPT o la API, podrían ser responsables de defenderse.
OpenAI no garantiza que sus servicios siempre funcionen como se espera o que cierto contenido (entrada y salida de una herramienta de IA generativa) sea seguro, y señala que no será responsable de tales resultados.
Lo máximo que ofrece OpenAI para compensar a los usuarios por los daños causados por sus herramientas es la cantidad que el usuario pagó por los servicios durante el último año, o $100suponiendo que no sean de aplicación otras leyes autonómicas.
Más demandas en AI
Los casos anteriores son solo la punta del iceberg legal de AI. OpenAI y sus pares enfrentan problemas legales adicionales, incluidos los siguientes.
- Un alcalde en Australia puede demandar IA abierta por difamación por información inexacta sobre él proporcionada por ChatGPT.
- Copiloto de GitHub se enfrenta a una demanda colectiva por los derechos legales de los creadores de la codificación de código abierto en los datos de entrenamiento de Copilot.
- Estabilidad AI, DeviantArt y Midjourney enfrenta una demanda colectiva por el uso de StableDiffusion, que usó arte protegido por derechos de autor en sus datos de entrenamiento.
- Getty Images inició acciones legales contra Estabilidad IA por usar contenido protegido por derechos de autor de Getty Images en datos de entrenamiento.
Cada caso tiene el potencial de sacudir el futuro del desarrollo de la IA.
Imagen destacada: Giulio Benzin/Shutterstock
#ChatGPT #las #herramientas #inteligencia #artificial #generativa #enfrentan #problemas #legales #todo #mundo