Forbes Argentina
15 Junio de 2023 16.00

Ana Faguy

Google hace un pedido "desesperado" a sus empleados sobre el uso de Bard, su propio chatbot de Inteligencia Artificial

La compañía advirtió a su personal (especialmente a sus ingenieros) no introducir material confidencial en ningún chatbot inteligente, incluido el propio. De esta manera, la empresa se suma a una creciente lista de organizaciones preocupadas por la filtración de información interna sensible a través de la IA.

La empresa matriz de Google, Alphabet, está advirtiendo a sus empleados que no introduzcan material confidencial en los chatbots, incluido su propio chatbot Bard, según informó Reuters el jueves; uniéndose así a una creciente lista de empresas preocupadas por la filtración de información interna sensible a través de la IA.

Google advirtió el jueves a los ingenieros de Alphabet que evitaran el uso directo del código informático que también pueden producir los chatbots, porque la IA puede reproducir los datos que absorbe durante el entrenamiento, con el riesgo de una posible filtración, informó Reuters citando a "cuatro personas familiarizadas con el asunto".

Las posibles filtraciones de la tecnología de IA podrían ayudar al competidor de Bard, ChatGPT, en la actual carrera por dominar el mundo de la IA, en la que aún están en juego miles de millones de dólares en inversiones y publicidad.

 

A principios de esta semana, Politico informó de que Google estaba posponiendo el lanzamiento de Bard en la Unión Europea debido a las preocupaciones sobre el impacto del chatbot en la privacidad.

Antecedentes
 

Incluso antes de que el jueves se informara de que Google estaba advirtiendo a sus empleados sobre cómo utilizar Bard, varias grandes empresas han bloqueado el uso de herramientas de IA a algunos empleados por temor a que puedan filtrar datos internos sensibles.

El mes pasado, el Wall Street Journal informó de que Apple prohibió a sus empleados el uso de su chatbot ChatGPT, así como de otro servicio impulsado por IA llamado Copilot de Github, que se utiliza para ayudar a los desarrolladores a escribir código. 

ChatGPT, Bard.
ChatGPT, Bard.

Samsung aplicó una prohibición similar a ChatGPT en mayo, tras descubrir una filtración accidental de código sensible por parte de un ingeniero que lo subió a ChatGPT. Amazon prohibió a sus empleados compartir cualquier código o información confidencial con el chatbot de OpenAI después de que la empresa afirmara que había descubierto ejemplos de respuestas de ChatGPT que se parecían a datos internos de Amazon. 

Y no se trata sólo de empresas tecnológicas, varios bancos, entre ellos JPMorgan Chase, Bank of America, Citigroup, Deutsche Bank, Wells Fargo y Goldman Sachs, han prohibido el uso de chatbots de IA a sus empleados, preocupados por la posibilidad de que compartan información financiera confidencial. OpenAi tuvo que cerrar brevemente ChatGPT en marzo para resolver un fallo que permitía a algunos usuarios ver partes del historial de chat de otro usuario.

Google está desplegando su chatbot Bard en más de 180 países y en 40 idiomas. Bard se lanzó en EE.UU. en marzo. Cuando Google anunció su intención de lanzar un chatbot en febrero, Bard respondió incorrectamente a una pregunta durante un vídeo promocional, según informó Reuters. El error asustó a algunos inversores y coincidió con una caída del precio de las acciones de Alphabet, borrando 100.000 millones de dólares del valor de mercado de Alphabet.

 

Nota publicada en Forbes US.

10