
El auge de la inteligencia artificial: implicaciones y avances
La inteligencia artificial (IA) ha cobrado protagonismo y ha captado la atención mundial tras la inmensa popularidad de los chatbots de modelos de lenguaje grandes (LLM), como ChatGPT de EE. UU.y DeepSeek de China, que tuvieron un notable impacto en el mercado de valores. Este nuevo interés plantea preguntas pertinentes sobre la influencia de la IA en diversas industrias, en particular entre las personas que pueden no estar familiarizadas con el término «inteligencia artificial».
Preocupaciones en torno a las tecnologías de inteligencia artificial
A pesar de los beneficios que ofrece la IA, existen riesgos inherentes que no se pueden ignorar. Cuestiones como la desinformación, las violaciones de la privacidad, la excesiva dependencia de la tecnología y las posibles aplicaciones militares plantean serias preocupaciones. La responsabilidad de mitigar estos peligros recae directamente sobre los pioneros de la IA y los líderes del sector.
El compromiso de Google con la IA responsable
En respuesta a estos desafíos, Google ha priorizado constantemente la seguridad en el ámbito del desarrollo de la IA. Durante los últimos seis años, la empresa ha publicado un «Informe de progreso de la IA responsable» anual. Más recientemente, publicó su informe de progreso de 2024, un documento que describe sus esfuerzos continuos para fortalecer la seguridad de la IA.
Una de las novedades más importantes del último informe es la modificación del marco de seguridad fronteriza de Google. Este marco, iniciado por Google DeepMind, tiene como objetivo identificar y abordar de forma proactiva los posibles riesgos asociados a los sistemas de inteligencia artificial avanzados. Algunas de las mejoras clave son:
- Recomendaciones para una mayor seguridad : Proponer estrategias para mejorar las medidas de seguridad contra violaciones de datos.
- Procedimiento de mitigaciones de implementación : establecer pautas para evitar el uso indebido de las potentes capacidades de la IA.
- Riesgo de alineación engañosa : abordar la amenaza que plantean los sistemas autónomos que podrían manipular la supervisión humana.
Liderazgo democrático en el desarrollo de la IA
Además de actualizar sus protocolos de seguridad, Google reafirmó su postura de que las democracias deben liderar el desarrollo de tecnologías de inteligencia artificial, haciendo hincapié en valores como la libertad, la igualdad y el respeto por los derechos humanos. La empresa también anunció revisiones de sus Principios de IA originales, que se publicaron por primera vez en 2018.
Cambios en los principios de inteligencia artificial de Google
Una visita a la página de Principios de IA revela una notable ausencia en lo que respecta al uso de IA en armamento. Una versión archivada de la página del 22 de febrero de 2024 incluía un compromiso de abstenerse de crear o implementar tecnologías de IA diseñadas para causar daño:
Armas u otras tecnologías cuyo propósito principal o implementación sea causar o facilitar directamente daños a las personas.
Sin embargo, este compromiso ha sido omitido en los principios revisados, que ahora se concentran en tres principios fundamentales:
- Innovación audaz : Nuestro objetivo es desarrollar tecnologías de IA que empoderen a las personas e impulsen avances en diversos campos, mejorando el bienestar económico y social.
- Desarrollo e implementación responsables : reconociendo la naturaleza transformadora de la IA, nos comprometemos a garantizar su desarrollo e implementación seguros a través de pruebas rigurosas y consideraciones éticas.
- Progreso colaborativo, juntos : valoramos las asociaciones y nos dedicamos a crear tecnologías que permitan a otros utilizar la IA para obtener resultados positivos.
Preocupaciones de los empleados y consideraciones éticas
Curiosamente, Google aún no ha abordado la eliminación de su compromiso previo de no usar IA con fines militares, una decisión que ha generado un rechazo significativo por parte de su fuerza laboral. En 2018, casi 4.000 empleados firmaron una petición solicitando la rescisión del contrato de la empresa con el Departamento de Defensa de los EE. UU., conocido como Proyecto Maven, que utilizaba IA para analizar imágenes de drones.
Más recientemente, los empleados de Google DeepMind expresaron inquietudes similares e instaron a la empresa tecnológica a cortar vínculos con entidades militares. Este llamado a la acción hacía referencia a los principios de inteligencia artificial de la empresa, argumentando que tales relaciones entran en conflicto con su compromiso previo de abstenerse de desarrollar tecnologías militares.
Para ver más de cerca, visita www.www.stockphoto.com.
Deja una respuesta