Las empresas, cautas ante la democratización de la IA

Representación de la inteligencia artificial (IA) con el logo de ChatGPT.
photo_camera Representación de la inteligencia artificial (IA) con el logo de ChatGPT.
Muchas compañías ya tienen guías con las líneas rojas que los empleados no pueden traspasar

La UE prepara la primera ley integral para regular la inteligencia artificial; las diferentes normativas de protección de datos personales ya prevén el uso masivo de información y cómo se debe reglamentar; y los códigos penales fijan lo que está fuera de la ley y cómo se persigue; pero más allá del ámbito político y judicial, ¿pueden (y deben) las empresas autorregularse e imponerse líneas rojas?

Los expertos mantienen que la IA es ya una tecnología tan imprescindible como imparable, y que muchos de los retos del futuro -una mejor sanidad, con tratamientos más personalizados y eficaces; una energía más barata y limpia; o un transporte y una movilidad más sostenible- dependen ya en gran parte de ella.

Porque es capaz de mejorar la navegación, la geolocalización o de crear un “gemelo digital” que replica a un paciente para simular el mejor tratamiento; pero también de imitar en cualquier idioma la voz de un actor; o de alterar y falsear imágenes hasta convertir en misión imposible distinguir una real de otra “fabricada”.

Y en ese contexto, algunas empresas han comenzado a publicar sus propias guías y a trazar las líneas rojas para que los empleados conozcan el desarrollo de la IA, su implementación, las posibilidades y límites de uso, y se suceden algunos sustantivos -como ética, autorregulación o responsabilidad- adosados a esta tecnología.

Un ejemplo; la multinacional alemana SAP -especializada en el diseño de productos informáticos para la gestión empresarial- ha creado un “manual” dirigido a todos sus trabajadores para asegurar el uso ético de la IA, consciente de que esta tecnología puede abrir posibilidades “ilimitadas” a empresas o gobiernos, pero también desafíos económicos, políticos o sociales.

Sobre la cuestión formulada -¿pueden (y deben) las empresas autorregularse e imponerse líneas rojas?-, desde ChatGPT de la empresa OpenAI dicen: “Muchas empresas reconocen la importancia de establecer límites éticos. Esto incluye evitar aplicaciones que puedan causar daño a las personas, discriminación injusta, invasión de la privacidad o cualquier otra consecuencia negativa. Las empresas deben asumir la responsabilidad de cómo se utiliza su tecnología”.

Democratizar la IA

“Para que la gente confíe en las soluciones de IA, el desarrollo, el uso y la venta de esos sistemas debe regirse por normas morales claras”, indica Jesús Martínez, director de Soluciones e Innovación de la empresa SAP en España, y apunta que el rápido auge de la IA “generativa” ha elevado aún más los niveles de ética que se deben exigir.

Esta empresa tecnológica ha publicado sus “principios rectores de ética” en este ámbito, y su responsable ha insistido en que es ya una tecnología de la que no se puede prescindir, pero también en la importancia de su desarrollo se sustente sobre normas basadas en valores comunes.

Martínez compara el impacto de la IA “generativa” con el que pudo tener la imprenta, hasta cuya invención la lectura estaba reservada a unos pocos privilegiados, y ha asegurado que hasta ahora la nueva tecnología estaba en manos de ingenieros con una alta cualificación y ahora esa brecha tecnológica se ha reducido y el acceso a la IA se ha “democratizado”.

Te puede interesar