Noticias
Google previene a sus empleados sobre el uso de Bard… y es lógico
Leo, con cierta sorpresa, que algunos medios internacionales publican, con aspavientos, que Google ha advertido a sus trabajadores sobre los potenciales riesgos de los chatbots basados en modelos de inteligencia artificial generativa, entre los que se incluye, claro, su propio servicio, Bard. A diferencia de otras ocasiones en las que pongo el punto de mira en la actitud de determinados medios, en esta ocasión sí que es totalmente cierto, y el origen de dicha información lo encontramos en la Agencia Reuters.
Según varias fuentes internas citadas por dicha nota, son dos las recomendaciones dadas por Google a sus trabajadores. La primera es que no empleen información confidencial en sus conversaciones con los chatbots, ya hablemos de Bard, de ChatGPT, del Bing, de Poe, etcétera. Y la segunda es que, si emplean Bard para crear código de programación, que nunca lo utilicen directamente, es decir, que revisen, y si es necesario editen y corrijan, el código generado por el chatbot de Google.
«Google le dice a sus empleados que no utilicen Bard», «Google no confía en su propio chatbot», «Google recomienda a sus empleados no usar el servicio que ofrece al resto del mundo»… en fin, la colección de titulares tendenciosos es para echarse a llorar. Incluso, y eso que por norma general Reuters hace un gran trabajo, inicia esta pieza con el texto «Alphabet Inc está advirtiendo a los empleados sobre cómo usan los chatbots, incluido su propio Bard, al mismo tiempo que comercializa el programa en todo el mundo«.
Que los chatbots pueden dar respuestas incorrectas no es algo nuevo, y que existe el riesgo de que reproduzcan en otras conversaciones, a posteriori, lo que nosotros hemos hablado previamente con estos servicios, también es algo de sobra conocido. Es más, todas las empresas que ofrecen este tipo de servicios, o al menos las principales, alertan siempre a todos los usuarios sobre los mismos. Es decir, que la advertencia emitida por Google a sus trabajadores, se asemeja mucho a la que recibe cualquier usuario del servicio.
Que una tecnológica, como Google, aliente a los usuarios a emplear un servicio como Bard, es perfectamente compatible con el hecho de que informe y advierta sobre las imperfecciones del mismo, y que extienda dicha recomendación a sus propios trabajadores es… algo normal. Tan normal que, personalmente, me sorprende un tanto que Reuters lo haya considerado noticiable. Lo que no me extraña, eso sí, es que la respuesta de determinados medios haya sido buscar las fórmulas más retorcidas para compartir esta noticia.
Seguro que, si es nuestra intención, podemos encontrar aspectos mejorables en lo referido a cómo está Google gestionando sus servicios basados en inteligencia artificial, pero desde luego, la falta de prudencia, de rigor y de ética están, al menos por lo que hemos podido ver hasta ahora, totalmente fuera de lugar. Es más, creo que si de algo han pecado, es precisamente de eso, de ser escrupulosamente prudentes, en un mundo que va muy, muy deprisa, y en el que algunos competidores han aprovechado las circunstancias para intentar ponerse por delante.
-
GuíasHace 6 días
Qué placa base elegir: Guía de compras para Intel y AMD
-
GuíasHace 2 días
Guía para diferenciar generaciones y gamas de tarjetas gráficas
-
A FondoHace 6 días
Ofertas Flash del Black Friday 2024 de PcComponentes
-
A FondoHace 4 días
GeForce RTX 5050, especificaciones, rendimiento, equivalencias, fecha de lanzamiento y posible precio