En una era en la que la IA define cada vez más la experiencia del cliente, comprender el funcionamiento interno de estas tecnologías nunca ha sido más crucial, en particular para los especialistas en marketing.
Un reciente Informe de Bloomberg ha arrojado luz sobre la capacitación de la fuerza laboral humana en el chatbot Bard de Google, destacando el papel integral de miles de contratistas en la configuración de las respuestas de esta herramienta de IA.
Este informe detallado descubre las realidades del desarrollo de la IA y presenta implicaciones significativas para las personas que las utilizan.
La calidad, la precisión y la confiabilidad de las interacciones impulsadas por IA pueden afectar la reputación de la marca, la confianza del cliente y, en última instancia, sus resultados.
A medida que profundizamos en los procesos humanos detrás del chatbot Bard AI, obtenemos información valiosa sobre los desafíos y oportunidades que se avecinan para las empresas que aprovechan la IA en sus estrategias de marketing.
Un vistazo al campo de entrenamiento de la IA
Bard de Google es bien conocido por sus respuestas rápidas y seguras a varias preguntas.
Sin embargo, trabajadores contratados anónimos le revelan a Bloomberg que detrás de esta destreza de IA se encuentra el trabajo de humanos frustrados.
Estos contratistas, provenientes de empresas como Appen Ltd. y Accenture Plc, trabajan con plazos ajustados para garantizar que las respuestas del chatbot sean confiables, precisas y libres de prejuicios.
Trabajar bajo presión
Estos contratistas, algunos de los cuales ganan tan solo $ 14 por hora, han estado bajo una presión cada vez mayor en el último año a medida que Google y OpenAI compiten en una carrera armamentista de IA.
Las tareas se han vuelto más complejas y la carga de trabajo ha aumentado, a menudo sin que los contratistas tengan experiencia específica en las áreas que están revisando.
Un contratista anónimo dijo:
“Tal como está ahora, la gente está asustada, estresada, mal pagada, no sabe lo que está pasando. Y esa cultura del miedo no es propicia para obtener la calidad y el trabajo en equipo que uno quiere de todos nosotros”.
El papel de los contratistas en la formación de IA
El papel de los contratistas es revisar las respuestas de la IA, identificar errores y eliminar posibles sesgos. Trabajan con instrucciones complicadas y plazos ajustados, a menudo tan cortos como tres minutos.
Según documentos compartidos con Bloomberg, con frecuencia se les pide a los contratistas que decidan si las respuestas del modelo de IA contienen evidencia verificable. Analizan las respuestas en función de factores como la especificidad, la frescura de la información y la coherencia.
Un ejemplo en el informe de Bloomberg analiza cómo un evaluador podría usar la evidencia para determinar la dosis correcta de un medicamento para la presión arterial llamado Lisinopril.
Los contratistas deben asegurarse de que las respuestas no tengan contenido dañino, ofensivo o excesivamente sexual. También deben protegerse contra información inexacta, engañosa o engañosa.
Destacando el factor humano detrás de la IA
Aunque los chatbots de IA como Bard se consideran avances tecnológicos innovadores, la verdad es que su eficacia depende del trabajo de los contratistas humanos.
Laura Edelson, científica informática de la Universidad de Nueva York, le dice a Bloomberg:
“Vale la pena recordar que estos sistemas no son obra de magos, son el trabajo de miles de personas y su trabajo mal pagado”.
A pesar del papel integral de los contratistas, su trabajo a menudo está envuelto en misterio y tienen poca comunicación directa con Google.
Preocupaciones sobre la calidad de los productos de IA
Los contratistas están expresando su preocupación por sus condiciones de trabajo, que creen que podrían afectar la calidad de los productos de IA.
Los contratistas son una parte indispensable del entrenamiento de la IA, como afirmó Ed Stackhouse, un trabajador de Appen, en una carta al Congreso.
Stackhouse advirtió que la velocidad requerida para la revisión del contenido podría hacer que Bard se convierta en un producto «defectuoso» y «peligroso».
Google respondió a estas preocupaciones afirmando que realiza un trabajo extenso para construir sus productos de IA de manera responsable, empleando rigurosos procesos de prueba, capacitación y retroalimentación para garantizar la factualidad y reducir los sesgos.
Si bien la compañía afirma que no se basa únicamente en evaluadores humanos para mejorar la IA, se ha señalado que pueden aparecer imprecisiones menores, lo que podría inducir a error a los usuarios.
Alex Hanna, director de investigación del Distributed AI Research Institute y ex especialista en ética de Google AI, dijo:
“Sigue siendo preocupante que el chatbot se esté equivocando en los datos principales”.
Un llamado al cambio
A pesar de las crecientes preocupaciones sobre las condiciones de trabajo y la calidad de los productos de IA, está claro que los contratistas humanos son una parte esencial del desarrollo de la IA.
El desafío es garantizar que reciban una compensación adecuada y se les proporcionen los recursos necesarios para realizar su trabajo.
Emily Bender, profesora de lingüística computacional en la Universidad de Washington, subrayó este punto y dijo:
“El trabajo de estos empleados contratados en Google y otras plataformas tecnológicas es una historia de explotación laboral”.
A medida que continúa la revolución de la IA, el papel de los contratistas humanos en la configuración y el perfeccionamiento de estas tecnologías seguirá siendo vital.
Sus voces y preocupaciones deben ser escuchadas y abordadas para garantizar el desarrollo continuo de productos de IA confiables, precisos y éticos.
Imagen destacada: Maurice NORBERT/Shutterstock
#Debajo #Bard #Google #vistazo #mundo #del #entrenamiento #humano