No. ChatGPT no puede hacer tu trabajo y, además, tiene peligro

Por mucho que sea una creación de inteligencia artificial, ChatGPT no es inteligente. Siento desilusionar al lector pero, de momento, la IA de OpenAI no puede hacer el trabajo de los que nos dedicamos a crear textos. Y considero muy probable que no lo pueda hacer nunca.

Para quién aún no lo sepa, ChatGPT es una aplicación o un chatbot de inteligencia artificial, especializada en el diálogo y los textos, que ha salido este año. Es LA gran revolución del momento. Básicamente funciona así: el usuario le hace cualquier pregunta a la IA y el chatbot ofrece una respuesta bastante coherente. Como ejemplo, le puedes preguntar sobre la relación entre el arte y la arquitectura y la aplicación te ofrece, en cuestión de segundos, un texto bastante extenso y muy convincente sobre el asunto. Pero claro, es muy convincente siempre y cuando el usuario no conozca el tema en profundidad porque, si lo hace, hallará errores. Pero, ¿por qué?

Pues porque lo que hace ChatGPT es nutrirse de una cantidad enorme de textos y refundirlos sacando supuestas conclusiones. Pero no piensa. No distingue. No discrimina. Algo que, de momento, solo podemos hacer los humanos.

«ChatGPT no es inteligente, así que no sabe diferenciar entre informaciones veraces y falsas»

Como digo, ChatGPT no es inteligente, así que no sabe diferenciar entre informaciones veraces y falsas. Además, cuando lo pruebas y le preguntas varias veces lo mismo de diferente manera, puede ofrecer conclusiones diferentes. Al fin y al cabo, su modo de funcionamiento es el mismo que el de las aplicaciones que crean imágenes a partir de un texto. Es decir, hace un “refrito” de toda la información que maneja y saca un resultado. Y si le pides que haga el mismo ejercicio una segunda vez, el resultado del “refrito” cambia. No mucho a simple vista, está bien logrado, pero cambia.

Pese a todo, puede ser útil y, sí, es muy divertido. Eso no lo puedo negar. He pasado varias horas interactuando con ChatGPT y han salido cosas muy interesantes y curiosas. Además, es muy útil para despertar la creatividad y dar con ideas nuevas. Pero no podemos olvidar que tiene un gran peligro, y es que tiene la capacidad de potenciar aún más la proliferación de la desinformación.

Ya son varias las personas que me han comentado que han utilizado el chat para sus trabajos, universitarios o profesionales. Incluso hoy he leído un artículo en un medio de comunicación escrito íntegramente por ChatGPT. Pero lo sé porque el propio artículo lo especifica. ¿Y si no lo hiciera? ¿Y si alguna de la información a la que estamos accediendo ahora ha sido escrita con esta aplicación? ¿Cómo distinguir entonces su fiabilidad?

Me habría encantado escribir una opinión positiva sobre la aplicación del momento, la verdad, porque los nuevos desarrollos que trae la tecnología me resultan muy atractivos. Sobre todo, los relacionados con la IA. Pero creo que es necesario poner en alerta a la gente sobre este asunto, ya que puede enmarañar aún más el escenario de desinformación en el que ya estamos inmersos.

Por Estefanía Campos, directora en Estudio de Comunicación

@Ecampos1976

, , , , , , ,
SWITCH THE LANGUAGE
Text Widget
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Vivamus quis neque vel quam fringilla feugiat. Suspendisse potenti. Proin eget ex nibh. Nullam convallis tristique pellentesque.