Las aplicaciones de Inteligencia Artificial llevan poco más de 10 años existiendo en el mercado y aunque la masificación de la IA generativa logró poner el término en el centro de la conversación en 2023, este nuevo año las empresas que la desarrollen también tendrán la labor de explicar cómo funciona y definir los alcances de la herramienta, de acuerdo con expertos.
Por ejemplo, Marcio Aguiar, director comercial de Nvidia Enterprise, señala que una de las necesidades más inmediatas será la de tener talento capacitado, así como planes de educación hacia las compañías con el fin de que sus apuestas de negocio sean acertadas y benéficas a largo plazo.
“Al inicio de 2023, muchas compañías querían crear sus propios Chat GPT’s. pero ahora las ideas son más diversas, con distintas configuraciones de un framework, porque cada uno tiene una necesidad distinta, cada departamento tiene una necesidad distinta del otro.
«Entonces, hay que ver una customización muy, muy fuerte. Y eso es donde las compañías tienen un poco de dificultad, porque no tienen gente suficiente para desarrollar”, apunta el directivo.
Ahora bien, para obtener valor empresarial a partir del uso duradero de la IA será necesario que las empresas desarrollen “un enfoque disciplinado para su adopción generalizada, junto con atención a los riesgos”, según la consultora Gartner.
Por ello es importante que las empresas gestionen la confianza, el riesgo y la seguridad de la IA, a fin de evitar los potenciales efectos negativos que pueden salirse de control. En este sentido, Gartner predice que para 2026, las empresas que apliquen un programa integral de gestión de confianza, riesgo y seguridad (TRiSM) de IA “aumentarán la precisión de su toma de decisiones al eliminar hasta 80% de la información defectuosa e ilegítima”.
Con respecto a la necesidad de mitigar los riesgos y optimizar la gobernanza de la IA, en 2024 también habrá nuevas regulaciones integrales. Se espera que estas normativas, por un lado, catalicen los avances tecnológicos y, por el otro, protejan a la población de cualquier repercusión involuntaria de la IA.
Al mismo tiempo, la necesidad de que esta tecnología funcione con la máxima transparencia y equidad requerirá cultivar estándares rigurosos que garanticen un manejo responsable, de acuerdo con la consultora.
“En paralelo con estos desarrollos, la necesidad de avanzar hacia modelos de tecnologías sostenibles ganará prevalencia en las decisiones vinculadas con la tecnología, y la reducción de los consumos energéticos estarán en el centro de las estrategias de los CIOs, con desarrollos de nube verde e iniciativas para reutilizar el calor en los data centers”, apunta la empresa Baufest, enfocada en soluciones de TI.
De hecho, la Comisión Federal de Comercio de Estados Unidos (FTC) ha advertido sobre fraudes, engaños, infracciones de la privacidad y otras prácticas desleales posibles gracias a la facilidad de creación de contenidos por IA.
Por lo que será más común ver cómo empresas del tamaño de YouTube o TikTok implementen más transparencia en este tipo de contenidos. Además, se espera un mayor enfoque de parte de la FTC en regulaciones sobre privacidad.
Hasta ahora existe un nuevo proyecto de ley bipartidista, presentado en el Congreso de Estados Unidos, que tiene como objetivo codificar la alfabetización algorítmica como una parte clave de la alfabetización digital.
“Con la IA cada vez más entrelazada con todo lo que hace la gente, está claro que ha llegado el momento de centrarse no en los algoritmos como piezas de tecnología, sino de considerar los contextos en los que operan los algoritmos: personas, procesos y sociedad”, señaló Anjana Susarla, profesora de sistemas de información de la Universidad Estatal de Michigan a The Observation.
Con información de Revista Expansión.