En la actualidad, la inteligencia artificial (IA) se ha integrado en múltiples aspectos de la vida cotidiana, desde la atención al cliente hasta la creación de contenido. Sin embargo, su creciente uso como fuente de información y verificación ha generado preocupaciones significativas. Diversos estudios y expertos han señalado que los chatbots basados en IA, como ChatGPT, Gemini y otros, pueden proporcionar respuestas incorrectas o engañosas, lo que plantea riesgos considerables para los usuarios que confían en ellos como fuentes de información veraz.
Un estudio reciente reveló que estos sistemas de IA tienen dificultades para distinguir entre hechos y opiniones, y a menudo presentan información sin el contexto adecuado. Por ejemplo, se encontró que el 51% de las respuestas proporcionadas por estos asistentes contenían errores significativos, y el 19% introdujo errores factuales al citar contenido específico de fuentes confiables. Este fenómeno, conocido como «alucinación de IA», ocurre cuando el sistema genera respuestas que parecen plausibles pero que carecen de fundamento en los datos de entrenamiento o en la realidad.
La confianza excesiva en estos sistemas puede llevar a la propagación de desinformación, especialmente cuando los usuarios no verifican la información proporcionada. Además, la tendencia de los chatbots a presentar respuestas con un tono autoritario puede dar una falsa sensación de precisión y fiabilidad. Este problema se agrava cuando los sistemas citan fuentes respetables, ya que los usuarios tienden a confiar más en la información, incluso si es incorrecta.
Otro aspecto preocupante es la susceptibilidad de estos sistemas a los sesgos presentes en los datos de entrenamiento. Si los datos utilizados para entrenar a la IA contienen prejuicios o información errónea, es probable que el sistema reproduzca estos errores en sus respuestas. Esto puede tener consecuencias graves, especialmente en áreas sensibles como la salud, donde la precisión de la información es crucial.
Además, la falta de regulación y supervisión en el desarrollo y uso de la IA plantea desafíos éticos y legales. La responsabilidad por las consecuencias de las respuestas erróneas de la IA no está claramente definida, lo que complica la rendición de cuentas en casos de daño o perjuicio.
