Polémica en Google: Utilización de datos públicos para entrenar IA sin consentimiento

Preocupaciones por los derechos de terceros y la ética en la IA.

Inteligencia artificial de Google
Google

La batalla por los modelos de IA mejor entrenados ha llevado a Google a declarar obsoleto el respeto por los derechos de terceros. Los últimos cambios en las pautas de protección de datos del gigante tecnológico han generado preocupación, ya que ahora se afirma abiertamente que cualquier información pública disponible en Internet se utiliza para entrenar los algoritmos de la empresa.

Inteligencia artificial de Google
Inteligencia artificial de Google

Cuestionamiento ético y legal en la práctica de Google

Vía Gizmodo, Google ha modificado sus pautas de protección de datos, afirmando que utilizan información pública para mejorar sus servicios y desarrollar nuevos productos de IA, como Google Translate, Bard y capacidades de IA en la nube.

Esto implica que cualquier información disponible públicamente puede ser utilizada sin el consentimiento del autor, generando controversia y planteando cuestiones éticas y legales.

Esta comprensión amplia de los derechos de uso ha sido objeto de debate durante algún tiempo. Muchos proveedores de servicios no están de acuerdo con que los desarrolladores de IA accedan a sus datos para mejorar productos sin su consentimiento.

Sin embargo, Google ha dado un paso adelante al escribir abiertamente esta presunción en sus directrices de protección de datos, lo que ha generado preocupación en la comunidad.

Un entendimiento legal controvertido y la inclusión de todos los modelos de IA

La nueva cláusula en las pautas de protección de datos de Google plantea un entendimiento legal único. La empresa no distingue entre diferentes áreas legales, tratando todo el contenido público en Internet como una masa uniforme.

Sin embargo, en la mayoría de las regiones, el contenido disponible públicamente está protegido legalmente y no puede ser utilizado para otros fines sin el consentimiento del autor.

Además, esta modificación en las pautas de protección de datos no se limita solo a los modelos de lenguaje detrás de Google Translate, sino que también incluye a todos los modelos de IA, como Bard y Cloud AI.

Esto amplía aún más el alcance de la práctica controvertida y plantea interrogantes sobre el cumplimiento de las regulaciones de uso justo y los derechos de propiedad intelectual.

La inclusión de esta cláusula en las directrices de protección de datos de Google ha generado preocupación y críticas por parte de expertos en ética y privacidad.

Además, plantea interrogantes sobre la responsabilidad de las empresas tecnológicas en el uso de información pública y la necesidad de una regulación más estricta para salvaguardar los derechos de terceros.

A medida que la discusión en torno a este tema continúa, es fundamental que las empresas tecnológicas reflexionen sobre el impacto ético y legal de sus prácticas y busquen un equilibrio entre el desarrollo de la IA y el respeto a los derechos de los individuos y las comunidades cuyos datos se utilizan para entrenar estos modelos.