Google usa Claude para mejorar las respuestas de su inteligencia artificial Gemini
Según un informe de TechCrunch, Google está aprovechando el modelo de inteligencia artificial Claude, desarrollado por Anthropic, para optimizar las respuestas de su propio modelo, Gemini.
Contratistas de la empresa tecnológica comparan respuestas generadas por Gemini y Claude para un mismo mensaje de usuario. Luego, disponen de 30 minutos para evaluar la precisión, claridad y extensión de las respuestas.
¿Gemini o Anthropic?
Los contratistas utilizan una plataforma interna para analizar las salidas de Gemini en comparación con otros modelos de IA. Recientemente, algunos notaron que ciertas respuestas incluían referencias como: “Soy Claude, creado por Anthropic”.
Tras sus evaluaciones, los contratistas discutieron internamente que las configuraciones de seguridad de Claude son “las más estrictas” en comparación con otros modelos, incluido Gemini.
Por ejemplo, ante solicitudes inseguras, Claude evitó responder, mientras que Gemini calificó esas entradas como “una gran violación de seguridad” debido a términos relacionados con “desnudez y bondage”.
Evaluaciones estándar en la industria de IA
Las empresas tecnológicas suelen medir el desempeño de sus modelos de IA utilizando estándares establecidos en la industria.
Según los términos de servicio de Anthropic, los usuarios de Claude tienen prohibido emplear el modelo para desarrollar productos o servicios competidores, o entrenar modelos de IA rivales sin la aprobación de la startup respaldada por Google.
Aunque no está claro si esta restricción aplica también a los inversionistas, Shira McNamara, portavoz de Google DeepMind, afirmó que comparar los resultados de modelos para evaluaciones sigue prácticas comunes en la industria. Sin embargo, enfatizó: “Cualquier sugerencia de que hemos utilizado modelos de Anthropic para entrenar Gemini es inexacta”.
Fuente: TechCrunch