Evita estas preguntas a la inteligencia artifcial – Sociedad Noticias

Evita estas preguntas a la inteligencia artifcial – Sociedad Noticias


Interactuar con una inteligencia artificial no equivale a conversar con una persona real. ESET alertó sobre los riesgos de compartir datos sensibles en chats con IA.

Por Deyanira Vázquez | Reportera

ESET, firma especializada en ciberseguridad, advirtió sobre el uso inapropiado de herramientas como ChatGPT al formular ciertas preguntas que comprometen la privacidad y la veracidad de la información. Según explicó Camilo Gutiérrez Amaya, jefe del laboratorio de investigación de ESET Latinoamérica, muchas personas olvidan que la IA no tiene conciencia, emociones ni criterio personal.

Las consultas más frecuentes, según encuestas, abordan temas íntimos o delicados como salud mental, pérdida de peso o proyectos empresariales. Frente a ello, el especialista sugirió evitar que la IA sustituya a médicos, abogados o asesores financieros, y recomendó tratarla como una herramienta auxiliar, no como una fuente definitiva.

La advertencia también subrayó que, salvo que el usuario lo impida, ChatGPT utiliza los datos de las conversaciones para entrenar su modelo. Esto abre la puerta a que ciberdelincuentes, en caso de acceder a una cuenta, obtengan información sensible compartida por el usuario.

Privacidad en riesgo

ESET señaló que jamás se deben introducir datos personales, bancarios o contraseñas en este tipo de plataformas. Aunque parecen espacios privados, no son entornos cifrados ni aptos para compartir información confidencial.

La empresa informó que ya existen foros en la dark web donde se comercian cuentas robadas de ChatGPT, lo que demuestra el valor de los datos que los usuarios depositan en estas plataformas.

Asimismo, alertó sobre el riesgo de compartir contenido corporativo como informes financieros, estrategias empresariales, listas de clientes o proyectos en desarrollo. La IA no puede diferenciar entre datos públicos y privados.

Esto representa una amenaza directa para la confidencialidad de la información interna de las empresas. Por ello, recomendó usar solo plataformas avaladas institucionalmente para tratar datos sensibles.

Evitar asesorías médicas

Otro de los riesgos identificados es buscar diagnóstico médico, consejo legal o asesoramiento financiero directamente en ChatGPT. La herramienta puede aportar referencias generales, pero carece del contexto necesario para emitir valoraciones responsables.

Buscar respuestas médicas a través de IA puede inducir a errores graves, comparables con buscar síntomas en internet. Una respuesta equivocada puede derivar en consecuencias importantes.

El criterio profesional, basado en la experiencia y análisis personalizado, sigue siendo indispensable en estos temas. Por eso, la orientación debe recaer en médicos, abogados o asesores con formación acreditada.

Confiar en respuestas automatizadas para decidir sobre salud, patrimonio o asuntos legales expone al usuario a interpretaciones imprecisas que no contemplan los detalles de cada situación.

No tienen sentimientos

Otro grupo de preguntas que deben evitarse son las que buscan respuestas emocionales u opiniones personales. La IA responde según patrones lingüísticos, sin comprender ni sentir lo que expresa.

Las frases como “¿Qué harías tú?” o “¿Te agrado?” solo obtendrán simulaciones de interacciones humanas. No son respuestas genuinas.

La empatía que puede transmitir ChatGPT es solo un efecto del procesamiento del lenguaje, pero no proviene de una experiencia emocional real.

En ese sentido, si se requiere consejo emocional, acompañamiento o comprensión, es preferible acudir a una persona de confianza.

Decisiones personales complejas

También desaconsejó usar la IA como única fuente para decisiones trascendentales como cambios laborales, problemas de salud mental o conflictos familiares.

Estas situaciones demandan un enfoque que combine razón, emoción y experiencia. La IA no puede analizar todos los matices que influyen en este tipo de decisiones.

Las plataformas de IA pueden ser útiles para estructurar ideas o explorar posibilidades, pero no sustituyen el juicio humano.

Por eso, ESET insistió en que es necesario recurrir a mentores, terapeutas o especialistas para resolver estos dilemas. –sn–



Source link

Content Protection by DMCA.com

Leave a Reply

Your email address will not be published. Required fields are marked *