30/05/2023

El mundo

Tecnología

Las regulaciones en la IA y su alcance: una mirada profunda

La transparencia como catalizador de la innovación y el consenso. Descubre por qué en esta nota.

¿Qué pensamos cuando nos hablan de Inteligencia Artificial (IA)? Probablemente todos tenemos conceptos diferentes basados en los avances significativos que esta tecnología ha experimentado. Hoy en día, diversos sectores como bancos, comercios, empresas de telecomunicaciones e incluso la industria del entretenimiento ya están utilizando la IA en diferentes casos de uso. 

Sin embargo, este crecimiento también ha generado un debate sobre si la IA debe considerarse una "caja negra" o no. Es importante tener en cuenta que la Inteligencia Artificial no es una tecnología nueva, ya que ha estado en desarrollo durante más de siete décadas, y la necesidad de modelos responsables ha sido una preocupación desde hace años.

Tecnología

Muchos argumentan que la IA podría ser considerada una "caja negra", ya que no se tiene visibilidad sobre las conclusiones o los datos que esta tecnología procesa. 

No obstante, la IA puede y debe ser transparente, es decir, una "caja de cristal", siempre y cuando tanto el proveedor de la tecnología como el usuario suministren datos objetivos y verídicos a la IA, y además se pueda comprender cómo la herramienta llegó a esa conclusión, utilizando modelos libres de sesgos y equitativos. 

En este sentido, el concepto de regulación juega un papel fundamental. Actualmente, varios países en el mundo ya cuentan con regulaciones o están debatiendo la implementación de una regulación clara en relación a la IA. 

Esta regulación tiene como objetivo establecer las reglas del juego en el uso de la IA, sin que se convierta en un obstáculo para la innovación, sino más bien como una oportunidad para alcanzar consenso en temas de transparencia, ética y explicabilidad en el campo de la IA. Los principales beneficiarios de estas regulaciones somos todos, como sociedad, ya que se busca proteger nuestros datos personales.

La IA utiliza grandes cantidades de información para aprender y mejorar su rendimiento. Sin embargo, es crucial que las personas sean el centro de esta tecnología. Es importante avanzar con responsabilidad y preguntarnos cuál es el impacto que tiene sobre las personas. 

Para construir una Inteligencia Artificial confiable, es necesario establecer los pilares éticos que guíen el desarrollo e implementación de la tecnología a nivel mundial, como la explicabilidad, equidad, robustez, transparencia y privacidad. Nuestro país no es una excepción en este aspecto.

La regulación de la Inteligencia Artificial implica la responsabilidad de múltiples partes interesadas. Para avanzar con este compromiso, es fundamental que los gobiernos, las organizaciones y las personas trabajen en sinergia. 

En esta colaboración, las empresas desempeñan un papel clave al asumir la responsabilidad del diseño de la IA de manera responsable dentro de su propio ámbito empresarial. Esto abarca no solo la tecnología en sí, sino también su implementación, la educación sobre ella y la gestión del talento involucrado.




Recomienda esta nota: