La profesión puede alzar la voz tanto para destacar la innovación como para alertarnos sobre los riesgos
Desde hace ya un tiempo, hay mucha preocupación sobre el debilitamiento del criterio de verdad. Primero, con el uso de internet, las redes sociales y las plataformas que impulsaron la proliferación de fake news. Luego, la pandemia con todos sus debates. Y, en los últimos meses, la utilización masiva de la inteligencia artificial (AI), particularmente los relacionados con modelos de lenguaje generativo (ChatGPT) y con creación y modificación de imágenes.
De repente, una enorme cantidad de “cibernautas” desafió a la tecnología con preguntas y consultas, buscando sesgos y errores, opinando sobre la utilidad de la herramienta, o simplemente, jugando con las palabras. Mientras los desarrolladores celebran ese ejercicio masivo que alimenta al modelo, muchos otros expresan públicamente su preocupación acerca del futuro de una humanidad atravesada por una IA sin regulaciones y valores claros.
¿Qué riesgos y amenazas visualizan personalidades como Elon Musk o Yuval Noah Harari? Si hay algo de genuino en sus expresiones es la percepción de que el pensamiento crítico atraviesa una profunda crisis y que la idea de verdad está cada vez más asociada a la creencia y es allí donde la IA viene a ocupar el lugar de una suerte de deidad incuestionable.
En ese sentido, ya hay muchas iniciativas velando por el uso ético y responsable de la IA. En 2019, la Academia Pontificia para la Vida, el Gobierno Italiano y un puñado de empresas lanzaban un documento sobre “algor-ética”. Hoy, la “cruzada” continúa y encontramos a ejecutivos como Roberto Alexander, gerente general de IBM, argumentando que los parámetros éticos se enfocan en la protección de los datos y la privacidad, la transparencia en relación con el diseño y el desarrollo de las aplicaciones bajo el concepto de que no sea una caja negra sino una copa de cristal; la explicabilidad en cuanto al origen y las fuentes de las respuestas, resultados o recomendaciones provistas y, algo no menor, el impacto social que genere el uso de la herramienta.
Según Alexander, “para nosotros las aplicaciones de IA deben estar destinadas a resolver un problema específico en el que la IA puede tener un impacto profundo y una rápida generación de valor”. También refleja lo vertiginoso del avance del uso de esta tecnología en Argentina: “Todos los años publicamos un índice de adopción en IA, aún no está el de este año, pero el de 2022 ya mostraba que un 19% de las empresas reportaron que la están utilizando en sus operaciones comerciales. Además, 51% informó que está explorando el uso de la IA”.
En este contexto, el periodismo juega un papel fundamental porque, por naturaleza, son los periodistas los que investigan, indagan, preguntan y repreguntan, los que buscan la verdad más allá de las interpretaciones, los que ponen en jaque las diferentes versiones de un acontecimiento, los que refutan fake news con información sobre los hechos.
Por su poder amplificador, ¿quién si no el periodismo puede poner en evidencia los sesgos o las faltas de ética y, sobre todo, señalar las debilidades de la información en el marco de una argumentación pretendidamente sólida pero de fuentes poco claras? ¿Quién si no el periodismo puede alzar la voz tanto para destacar las bondades de la innovación como para alertarnos sobre los riesgos de aceptarla sin cuestionamientos?
Sin embargo, por la complejidad y amplitud de estos desarrollos y los efectos que tienen sobre la sociedad en su conjunto, estos esfuerzos no pueden ser aislados. Al periodismo le corresponde poner estos temas en agenda y a los demás actores sociales, unirse ante un fenómenos que aunque silencioso, tiene el potencial de poner en jaque a toda la humanidad.