La inteligencia artificial, está aquí para quedarse, por lo que nos guste o no, debemos saber adaptarnos a ella, y tal vez, optimizar su uso en nuestra vida personal y profesional.
En medicina, su uso puede orientar en sugerir diagnósticos diferenciales, en casos complicados, ayudar en las anotaciones clínicas y producir comunicaciones fáciles y entendibles sobre procesos médicos a los pacientes.
Chat GPT, es un modelo de lenguaje largo (Large Language Model), el GPT viene de Generative Pretrained Transformer, lo que hace es predecir la siguiente palabra de una frase, por ejemplo, si usted dice «Hola, buenos…», si es de mañana, completará con «días».
Pare completar una frase determinada, obtiene información de revistas científicas de código abierto, recomendaciones de sociedades científicas y de redes sociales. Se trata de la plataforma más utilizada en internet en toda su historia.
Chat GPT, puede ayudar a un médico a redactar una carta de soporte a un paciente con una enfermedad terminal, por ejemplo, puede hacer ésta carta en 15 segundos, mientras que a un médico le suele tomar mucho más tiempo de redacción.
Así mismo puede generar comunicaciones, para explicar de manera sencilla algún proceso complejo, en consultas muy sobrecargadas. La versión nueva de pago, puede tomar notas durante la entrevista con un paciente, en tiempo real.
Todos estos usos requieren de supervisión adecuada, para estar seguros de que el algoritmo no comete errores.
Además muchos pacientes la están usando ya, aunque el médico no sepa nada de ésta tecnología.
Sin embargo, la inteligencia artificial, en los momentos actuales, puede cometer errores, al contrario de la experiencia médica, que puede dar respuestas y establecer margen de error, la IA asume como un hecho lo que afirma, aunque se encuentre equivocada.
El problema es la desinformación que crea, por ejemplo al preguntarle a Chat GPT, la fecha en que se pintó La Mona Lisa, estableció que fue en 1805, esto es unos 300 años después. O al preguntarle las posibles complicaciones de una afectación del esófago, respondió que una complicación posible era el cáncer de próstata. Lo que no es correcto.
Por tanto sus respuestas deberían ser re evaluadas, para estar seguros de que la información suministrada no es errónea. Ya que de momento no existe un control de calidad en cuanto a la información que suministra la inteligencia artificial.
Actualmente, ya los pacientes acuden a consulta con información sobre su condición obtenida por internet, en muchos casos errónea, lo mismo ocurre con la inteligencia artificial.
De momento los expertos recomiendan precaución y esperar a ver dónde termina esta tecnología que está en pañales. Así mismo, recomiendan al hacer alguna búsqueda, hacer preguntas concretas, que den respuestas concretas, si se hacen preguntas imprecisas, se obtendrán respuestas imprecisas. Asimismo se puede especificar el nivel de complejidad de la respuesta que deseamos, al suministrar un comando como «responde con nivel de médico especialista» al hacer una pregunta, por ejemplo.
Los expertos advierten que ésta tecnología, aprende con el tiempo, conoce tus hábitos, cualquier cosa que este abierta en tu programa de acceso a internet, mientras buscas en IA esta tecnología aprende de ello, por lo que se ha tener cuidado con tu historial de internet cuando entras a Chat GPT.
Se trata de una tecnología nueva, que de momento tiene sus fallos en relación a la exactitud de lo que afirma, por lo que debe usarse con precaución, es de esperar que estos fallos mejoren con el tiempo, seguramente vino para quedarse, así que nos guste o no, deberíamos familiarizarnos con ella.
FUENTE: MEDSCAPE
Imagen de libre distribución tomada de PIXABAY






Deja un comentario