Reflexiones sobre ChatGpt y la empresa
De un tiempo acá, una de las conversaciones más activas que se ha dado en torno a la inteligencia artificial ha sido alrededor de ChatGPT en los entornos académicos. Profesores críticos, lingüistas han emitido opiniones y pareciera que esta aplicación junto con Google Bard —que ya está en ciernes— incumben únicamente al ámbito educativo y me parece que también abarca el espectro empresarial. Estos sistemas conversacionales buscan responder preguntas específicas y que puede interactuar con sus usuarios en forma amigable. Toda esta disertación va en torno del punto ético que se involucra al usar estas herramientas.
¿Cómo puede influir en la forma en la que nos desempeñamos? Habría que comenzar diciendo que estas aplicaciones son sistemas de inteligencia artificial que nos desafían y nos llenan de preguntas que no sé si estas aplicaciones podrán responder. ¿Nos podrá ayudar a resolver dilemas empresariales?
El propio ChatGPT se reconoce incapaz de resolver ciertos enigmas ya que es un desarrollo basado en un modelo de lenguaje de inteligencia artificial. Entonces, podemos afirmar que la inteligencia es esta facultad que ayuda a resolver problemas, cosa que según se ve, podemos hacer los humanos y hasta cierto punto, una máquina también. Las personas somos capaces de resolver ciertos problemas, pero no todos. Lo que pasa es que el tipo de problemas que ChatGPT no puede resolver son aquellos del orden ético y moral. En cambio, los seres humanos tenemos consciencia de lo que está bien y lo que está mal. Una cosa es que a veces preferimos hacer las cosas mal, porque eso nos traerá un bien, pero en el fondo según Platón, sabemos lo que es correcto y lo que no lo es.
La inteligencia artificial y las posibilidades que nos ofrecen este tipo de sistemas nos deben ampliar las posibilidades, no limitarlas. El lingüista Noam Chomsky se pregunta en un artículo publicado por el New York Times si: “¿estaremos limitando nuestras posibilidades infinitas a la luz de un fin limitado?”. Y desde su punto de vista, debiéramos tener cuidado de que un fin bueno nos lleve a un mal destino. Eso es lo que tenemos que cuidar. Según Chomsky, ChatGPT es una aplicación que se aprende todo de memoria —repite como perico remasterizado—, mientras un ser humano utiliza la inteligencia para resolver problemas.Eso vuelve el conocimiento dudoso por la poca profundidad que sustenta. Además, en un ejercicio de interacción que Chomsky hizo con ChatGPT en el que le preguntaba sobre la banalidad del mal y sobre la influencia moral entre otros temas, llegó a las siguientes conclusiones: Chat GPT
- Se niega a tomar una posición.
- Al no responder correctamente, se justifica diciendo que sólo recibe órdenes y las ejecuta.
- Para defenderse de su no respuesta, les avienta la responsabilidad a sus creadores.
- Es incapaz de generar un balance entre creatividad y límites.
- Puede generar respuestas mentirosas como si fueran verdades sin que exista ningún compromiso ni obligación sobre lo que sustenta.
- Es indiferente a las consecuencias de sus respuestas.
Las conclusiones de Noam Chomsky me dejaron de una pieza, porque si bien es cierto que una aplicación como ChatGPT tiene esos comportamientos, también los podemos ver en las personas.
¿Cuántas veces hemos visto a colaboradores que no son capaces de tomar una posición frente a un dilema o a líderes que en vez de asumir su responsabilidad se la echan al que puedan con tal de quedar libres de consecuencias o personas que no conocen límites y se pasan de la raya o equipos que se atreven a dar respuestas mentirosas y son insensibles a las consecuencias de sus actos?Por supuesto, la gran diferencia que existe entre un ser humano inteligente y un sistema de inteligencia artificial es que nosotros sí tenemos ese punto ético, somos cada uno los que tomamos la decisión —cualquiera que esta sea— y en nuestro fuero interno, en conciencia, respondemos el dilema ético que conlleva decidir en un sentido o en otro, aunque sólo lo hagamos para nosotros mismos y pretendamos fingir demencia con los demás.