Artículo de información

José Carlos Botto Cayo y Abel Marcial Oruna Rodríguez

28 de agosto del 2023

La inteligencia artificial se ha infiltrado silenciosamente en todos los ámbitos de nuestras vidas. Casi a diario leemos asombrados cómo estos avances tecnológicos interpretan la realidad en campos tan diversos como el diseño gráfico, la administración empresarial o la traducción simultánea. Incluso son capaces de clonar voces humanas y producir contenidos utilizando nuestros propios patrones lingüísticos.

Pero una de las aplicaciones más controversiales y que mayor debate ético plantea es el reemplazo de personal por máquinas inteligentes. Especialmente en el sector de atención al cliente, existe una creciente preocupación por el impacto que tendrá en el empleo la incorporación de chatbots y agentes virtuales. ¿Estamos preparados para delegar nuestras consultas e interacciones a fríos algoritmos que, si bien eficientes, carecen de empatía humana? ¿O debemos resistirnos a esta deshumanización de los servicios en pos de mantener puestos de trabajo? Son preguntas aciagas sin una respuesta unívoca. En esta oportunidad, analizaremos matices de este dilema a la luz de recientes publicaciones que exploran el fenómeno desde múltiples aristas.

IA no entiende gestos humanos

La inteligencia artificial actual tiene limitaciones para moderar contenidos en redes sociales, ya que no puede interpretar adecuadamente el contexto detrás de las publicaciones. Plataformas como Bumble usan software para detectar imágenes sensibles, pero no distinguen entre libertad de expresión y discursos dañinos (Silva, 2023).

Según explican desde Twitter, estos sistemas no consideran elementos clave para juzgar si un comentario busca perjudicar o es simplemente una opinión. Por ejemplo, no captan la ironía, el sarcasmo o las referencias culturales detrás de una publicación potencialmente ofensiva. Tampoco analizan a fondo los antecedentes y motivaciones de cada usuario (Silva, 2023).

En definitiva, la inteligencia artificial aún tiene desafíos para entender cabalmente el trasfondo de las interacciones humanas en redes sociales. Se requiere un avance sustancial para que pueda distinguir adecuadamente entre la libre expresión y contenidos que propagan falsedades o incitan al odio. Mientras tanto, la moderación seguirá requiriendo supervisión humana (Silva, 2023).

OpenIA quiere que GPT 4 modere la internet

La empresa OpenAI planea utilizar su modelo de inteligencia artificial GPT-4 para asistir en la moderación de contenidos en internet. La idea es que el software se encargue de aplicar correcciones masivas, mientras un grupo de supervisores humanos monitorea y entrena el sistema. Sin embargo, antes habrá que mejorar la precisión del modelo, pues una herramienta similar de OpenAI tuvo recently sólo 26% de efectividad al tratar de detectar textos generados por IA (Alcolea, 2023).

Moderar contenidos en línea es una tarea compleja con diversos matices, desde comentarios ofensivos hasta materiales que atentan contra derechos humanos. Algunas plataformas como Facebook ya implementan IA en labores de apoyo a moderadores humanos. No obstante, un criterio consistente en toda la web requerirá avances en la capacidad de los modelos para interpretar correctamente el contexto de publicaciones potencialmente dañinas. Por ahora, la supervisión humana sigue siendo indispensable en esta sensible labor (Alcolea, 2023).

¿Quién es OpenAI?

OpenAI es una empresa fundada en 2015 dedicada a la investigación e implementación de inteligencia artificial con el objetivo de beneficiar a la humanidad. Su creación fue impulsada por destacados expertos como Elon Musk y Sam Altman (García, 2023).

Esta compañía desarrolló ChatGPT, un popular modelo de lenguaje capaz de mantener conversaciones y generar texto coherente. También está detrás de otras innovadoras herramientas basadas en IA como el entorno de aprendizaje reforzado Gym y el generador de imágenes DALL-E. Recientemente anunció planes para utilizar sus modelos en la moderación de contenidos en internet. OpenAI se ha consolidado como uno de los principales referentes en inteligencia artificial a nivel mundial (García, 2023).

Los peligros de la IA

La inteligencia artificial y modelos como ChatGPT plantean grandes beneficios, pero también riesgos potenciales. Uno de ellos es la generación de contenidos falsos extremadamente realistas que pueden utilizarse para difundir desinformación. Otro peligro es la automatización de trabajos, lo que podría generar desempleo masivo (Gow, 2023).

Asimismo, los sesgos en los datos utilizados para entrenar los modelos de IA pueden provocar discriminación. También existe la posibilidad de una «carrera armamentística» en IA entre países por motivos militares. Por último, está el riesgo de la superintendencia, es decir, que la IA se vuelva demasiado poderosa y escape al control humano (Gow, 2023).

Los principales desafíos son evitar la desinformación, la pérdida de empleos, los sesgos, la militarización y lograr que la IA siga siendo ética y beneficiosa para la humanidad mediante su correcta regulación. Pero esto requiere un esfuerzo coordinado entre gobiernos, empresas y sociedad (Gow, 2023).

Ventajas de la IA en el campo laboral

La inteligencia artificial está transformando el mundo del trabajo y puede tener varios beneficios en el entorno laboral. Uno de ellos es automatizar tareas repetitivas y administrativas, permitiendo a los empleados dedicar su tiempo a actividades más estratégicas, creativas y que generan mayor valor. Esto puede aumentar la productividad y la innovación (Moore, 2022).

Otro beneficio importante es la optimización de procesos a través del análisis de grandes volúmenes de datos. La IA puede procesar y extraer insights de datos en tiempo real, lo cual permite mejorar la eficiencia en las operaciones y fundamentar una mejor toma de decisiones. Las empresas pueden utilizar la IA para optimizar cadenas de suministro, interacciones con clientes y más (Moore, 2022).

Asimismo, la inteligencia artificial se puede emplear para entrenar habilidades en los trabajadores, proporcionando capacitación personalizada e identificando brechas para mejorar. Los sistemas de IA pueden generar planes de aprendizaje a la medida de cada empleado. Pero se requiere capacitar a los trabajadores para que puedan adaptarse a la IA (Moore, 2022).

Nuestras conclusiones frente a los beneficios y peligros de la IA

El debate en torno al uso de inteligencia artificial para la moderación de contenidos en internet refleja que esta tecnología aún tiene limitaciones para interpretar adecuadamente el contexto y los matices detrás de las interacciones humanas en redes sociales. Algunos expertos señalan los planes y desafíos que enfrenta OpenAI para implementar su modelo GPT en esta tarea.

Otro aspecto importante es la descripción de los principales riesgos asociados al avance de la IA, como la desinformación, automatización del trabajo y posible pérdida de control. Aunque también se destacan beneficios potenciales en ámbitos como la optimización de procesos y capacitación laboral.

Se observa que no hay consenso sobre el rol que debería tener la inteligencia artificial en la moderación de contenidos. Parece necesario un cuidadoso equilibrio entre la supervisión humana y la tecnología para gestionar adecuadamente los matices éticos y sociales.

En resumen, se requiere un debate amplio y multidisciplinario para garantizar que el desarrollo de la IA se oriente a fines éticos y beneficio de la sociedad, minimizando riesgos de aumento de desigualdad, discriminación o pérdida de derechos.

Bibliografía

Alcolea, A. (16 de Agosto de 2023). Xataka. Obtenido de OpenAI quiere que GPT-4 sustituya a todos los moderadores de Internet. La pregunta es si no lo empeorará : https://www.xataka.com/robotica-e-ia/openai-quiere-que-gpt-4-sustituya-a-todos-moderadores-internet-pregunta-no-empeorara

García, F. (13 de Julio de 2023). Cliengo. Obtenido de ¿Qué es OpenAI? Objetivos, limitaciones y versión paga: https://blog.cliengo.com/que-es-openai/

Gow, G. (10 de Abril de 2023). Forbes. Obtenido de Estos son los cinco principales peligros en la era de la IA y ChatGPT : https://forbes.es/tecnologia/260702/estos-son-los-cinco-principales-peligros-en-la-era-de-la-ia-y-chatgpt/

Moore, P. V. (29 de Diciembre de 2022). bbva openmind. Obtenido de Inteligencia artificial en el entorno laboral. Desafíos para los trabajadores: https://www.bbvaopenmind.com/articulos/inteligencia-artificial-en-entorno-laboral-desafios-para-trabajadores/

Silva, R. (18 de Mayo de 2023). Infobae. Obtenido de Por qué la inteligencia artificial empeoraría la moderación de contenidos en línea: https://www.infobae.com/tecno/2023/05/19/por-que-la-inteligencia-artificial-empeoraria-la-moderacion-de-contenidos-en-linea/