Casi el 70% de los directivos de empresas de diversos tamaños y sectores de Estados Unidos, Reino Unido y Australia se mostraron persuadidos de que con la IA generativa ahorrarán un promedio de cinco horas a la semana, que equivalente a un mes al año del staff a tiempo completo, pero que aún no saben cómo aprovecharla en forma responsable.
Si bien reconocen que atenderán mejor a sus clientes y sacarán mayor provecho a sus otras inversiones en tecnología, al tiempo que se confían en que ya manejan otras herramientas de IA y modelos de aprendizaje automático, un 73% de los consultados en la encuesta de la firma estadounidense Salesforce cree que aplicar la IA generativa introduce en la organización riesgos en la seguridad.
Los últimos resultados del estudio titulado “la Generative AI Snapshot Research Series”, que abarca a más de 4.000 dueños, gerentes generales, management y jerárquicos sin responsabilidad gerencial a tiempo completo, señalan que, aunque la mayoría utiliza o planea utilizar la tecnología, pocos saben cómo proteger a sus empresas de dichos riesgos.
El 61% transmite la certeza de que utiliza o planea utilizar la IA generativa en el trabajo y está dispuesto a afrontar imprecisiones, sesgos y problemas de seguridad. Finalmente, arriesgan su propia estabilidad en la organización que los emplea.
La compulsa detectó, en ese aspecto, que la IA generativa está llamada a influir en el día a día de los trabajadores más que en el de los directivos.
Sin embargo, alerta que la minoría menos timorata de quienes tienen responsabilidad de decisión se estaría confiando demasiado en su capacidad para ir para adelante en forma responsable con esta nueva tecnología y expone a los colaboradores individuales.
Consideran fundamental para convertir la IA generativa en una tecnología confiable que los datos también lo sean, así como la seguridad y la construcción de una base ética.
Paula Goldman, jefa de Ética y Uso Humano de Salesforce, advierte que, si bien “la IA generativa tiene el potencial de ayudar a las empresas a conectarse con sus audiencias de maneras nuevas y más personalizadas, a medida que las empresas adoptan esta tecnología necesitan asegurarse de que existen directrices éticas y límites establecidos para un desarrollo y uso seguro”.
La inteligencia artificial (IA) no es una novedad científica ni mucho menos, pero el debate mundial sobre sus alcances se disparó recientemente.
El detonante ha sido el chat GPT-4, la herramienta de IA más popular del mercado en la actualidad debido a la facilidad de uso y la rapidez en sus respuestas.
En su última versión incorporó la capacidad de leer no solo texto, sino incluso imágenes y audio, lo cual condenaría a la desaparición de profesiones como las de diseñador gráfico, fotógrafo, biólogo, corrector, ingeniero o arquitecto. Y también los matemáticos, gestores, contables y auditores entran en zona de riesgo, según el reporte.
Ejecutivos quieren usar IA generativa pero no saber cómo
Ya los escritores iniciaron una movida internacional en defensa de los derechos de autor y en Hollywood los actores y guionistas, nucleados en el Screen Actors Guild-American Federation of Television and Radio Artists (SAG-AFTRA, por sus siglas en inglés) y en Writers Guild of America (WGA), respectivamente, le hacen huelga a la Alliance of Motion Picture and Television Producers (AMPTP) por un reclamo salarial y por la creciente presencia de la inteligencia artificial en las producciones, así como las posibles amenazas que el uso de la tecnología impone a los afiliados.
Distintos tipos de inteligencia artificial se desarrollan asimismo en dispares grados de evolución: la estrecha (ANI), que es la “débil”, que actualmente se utiliza más, la general (AGI) y la superinteligencia artificial (ASI).
Los últimos avances en Inteligencia Artificial entusiasman a los inversores de Wall Street y Silicon Valley, y Nvidia, que aporta los procesadores que se necesitan para crear los modelos de lenguaje grande, se convirtió en la primera compañía con valuación que llega al billón de dólares.
Elon Musk, dueño de Twitter y Tesla, acaba de anunciar a xAI, una compañía de inteligencia artificial que, según afirma, “ayudará a entender la verdadera naturaleza del universo”.
Meta, que es la dueña de Facebook e Instagram, ambas son manejadas por Zuckerberg, está a punto presentar al público general su propia versión comercial de fuente abierta de inteligencia artificial, que ya se expusiera el año pasado a académicos e investigadores.
El proceso de inserción de los avances tecnológicos actuales en la órbita de los poderes hizo sonar las alarmas en distintos estamentos de la sociedad.
La película por estrenarse del cineasta angloestadounidense Christopher Nolan, ‘Oppenheimer’, se ha parado un momento a reflexionar sobre cómo se puede ver como una advertencia sobre los desafíos y avances tecnológicos actuales.
El desafío en torno al algoritmo y la inteligencia artificial se planteó durante una proyección del biopic del científico considerado padre de la bomba atómica, interpretado por Cillian Murphy.
Nolan reflexionó sobre el paralelismo entre el desarrollo de la IA y otras tecnologías que han tenido un impacto tremendo en la humanidad. Algunas de ellas, como la investigación de Oppenheimer, devastadoras.
“Cuando hablo con los investigadores líderes del campo de la IA ahora se refieren literalmente a este mismo momento como su momento Oppenheimer. Están mirando a la historia para decir ´¿Cual es la responsabilidad de los científicos al desarrollar nuevas tecnologías que tienen consecuencias involuntarias?´”.
El ingreso de la IA genérica al mundo de los negocios abre una incógnita social que aún los gobiernos, y menos en América Latina, no incorporaron en su agenda.
Mucho menos los ejecutivos de las corporaciones, que transitan la etapa de los riesgos de seguridad que asumen llevándolas a las organizaciones.
Fuente: NA