Google activa el uso en español de Bard, su inteligencia artificial
FUNCIONES. Las respuestas del chatbot de la firma también se pueden escuchar y sus creadores aseguran que "comprende" términos coloquiales.
Agencias /N.E.
Google lanzó su herramienta gratuita de inteligencia artificial (IA), Bard, en español, portugués, árabe, chino y hindi, entre más de 40 idiomas, cuando hasta ahora sólo se podía interactuar con este chatbot en inglés, japonés y coreano.
Romina Stella, Gerente de producto en responsabilidad para Bard, dijo a EFE que este modelo es capaz de reproducir y entender el español coloquial de todos los países hispanohablantes.
"Personalmente, muchas veces le pido que me dé una respuesta en español de Argentina o que me dé una respuesta en otro español y Bard puede generar ese contenido, hasta me contesta con expresiones coloquiales argentinas", recalcó Stella.
La argentina asentada en California, además, destacó que la razón por la que Bard puede hacer eso es por el modelo de lenguaje (LLM) de Google, PaLM 2 que incluye más de 100 idiomas y ha sido entrenado en 20 lenguajes de programación.
Otra de las novedades de Bard es que sus usuarios pueden "escuchar la respuesta" que les da el chatbot.
"Esto es especialmente útil si deseas escuchar la pronunciación correcta de una palabra o escuchar un poema o un guion", explicó Jack Krawczyk, jefe de producto de Bard.
Además, los usuarios de Bard ya pueden "anclar y cambiar el nombre de las conversaciones" que han tenido con el chatbot y los que se comuniquen con el mismo en inglés tienen la opción de cambiar el tono y el estilo de las respuestas de Bard a cinco opciones diferentes: simple, larga, corta, profesional o informal.
Investigan a chatgpt
La Comisión Federal de Comercio (FTC, en inglés), en tanto, abrió una investigación sobre OpenAI, para determinar si ChatGPT ha infringido las leyes de protección al consumidor al poner en riesgo la reputación y datos personales de los usuarios, según The Washington Post.
La comisión envió esta semana una demanda de investigación civil a la startup liderada por Sam Altman donde plantea a OpenAI varias preguntas, como sus prácticas para entrenar modelos de IA y su manejo de la información personal de los usuarios.
Entre los ejemplos que detalla la carta, a la que tuvo acceso The Washington Post, estaba un incidente de 2020 en el que la empresa reveló un error que permitía a los usuarios ver información sobre otros chats e información ligada al pago de otros usuarios.