“
Hay un nuevo informe que afirma que algunas de las políticas internas de evaluación del chatbot generativo de inteligencia artificial de Google, Gemini, han provocado respuestas menos precisas. Supuestamente, Google está haciendo que los contratistas (personas que evalúan el modelo) califiquen las respuestas de Gemini en temas en los que no están cualificados.
Entrenar a un chatbot de inteligencia artificial es un proceso bastante complejo. No se trata solo de agregar datos a la base de datos del modelo de inteligencia artificial. De hecho, los datos deben cumplir con ciertos parámetros, como una estructura organizativa apropiada, para que la inteligencia artificial pueda utilizarlos. Hay cientos, e incluso miles, de personas evaluando la calidad de las respuestas generadas, para asegurarse de que haya la menor cantidad posible de respuestas incorrectas.
Sin embargo, un informe de TechCrunch alega que Google no ha puesto todo el esfuerzo necesario en las políticas para calificar las respuestas de Gemini. Anteriormente, se informó que los contratistas tenían la opción de omitir una respuesta si no estaban calificados para verificar su precisión. Ahora, según los informes, Google no les permite omitir respuestas, incluso si no poseen el conocimiento necesario para verificarlas. Google requiere que las personas califiquen la parte de la indicación que comprendan, incluso si la totalidad está fuera de sus competencias. También deben dejar una nota mencionando que no tenían suficiente experiencia en el área. Según se informa, también hay excepciones cuando a los contratistas se les permite omitir una respuesta, en el caso de que falten datos clave, lo que haga que la respuesta sea incomprensible. También se aplica la excepción cuando se genera contenido potencialmente dañino.
Por supuesto, algunas personas pueden tener preocupaciones sobre las supuestas nuevas políticas y la precisión de Gemini. Puede ser especialmente preocupante en el caso de las personas que recurren a Gemini para pedir consejos sobre salud.
En este momento, no hay ninguna declaración de Google al respecto. Siempre es posible que la empresa también haya ajustado otras políticas para garantizar la precisión.
Personalmente, creo que la inteligencia artificial generativa tiene mucho más que evolucionar antes de que confíe en ella para obtener consejos de salud. Hasta ahora, he utilizado diferentes modelos, incluidos ChatGPT y Copilot de Microsoft, y aunque me encanta la tecnología, aún no confiaría en ella al 100%, especialmente cuando se trata de cosas importantes como preguntas de salud.
View Full Bio
Izzy, entusiasta de la tecnología y parte esencial del equipo de PhoneArena, se especializa en ofrecer las últimas noticias sobre tecnología móvil y encontrar las mejores ofertas tecnológicas. Sus intereses se extienden a la ciberseguridad, las innovaciones en diseño de teléfonos y las capacidades de la cámara. Fuera de su vida profesional, Izzy, que tiene una maestría en literatura, disfruta leyendo, pintando y aprendiendo idiomas. También es defensora del crecimiento personal, creyendo en el poder de la experiencia y la gratitud. Ya sea paseando a su chihuahua o cantando con todo su corazón, Izzy abraza la vida con pasión y curiosidad.
“