Informe
La advertencia del experto: Los límites críticos de la Inteligencia Artificial en la ciencia
En un contexto donde la automatización parece haber ganado la batalla por la inmediatez, el investigador y perito técnico-científico Néstor Vidal ha lanzado una advertencia contundente desde Bariloche: la Inteligencia Artificial (IA) no es una fuente fiable de información técnica y, bajo su apariencia de precisión, se esconden errores estructurales que pueden comprometer la integridad de cualquier investigación científica.
Qué es la Inteligencia Artificial (IA)
En pocas palabras, la Inteligencia Artificial (IA) es un modelo matemático de predicción. No es una mente con conciencia ni un oráculo que conoce la verdad; es un software que utiliza estadísticas avanzadas para reconocer patrones en volúmenes masivos de datos.
¿Cómo Funciona Científicamente?
Su proceso se basa en la probabilidad estadística. Cuando le haces una pregunta, la IA no "piensa" la respuesta, sino que calcula matemáticamente qué palabras o datos tienen más probabilidades de aparecer juntos, basándose en la información con la que fue entrenada.
El Riesgo de la "Verdad Probabilística"
La problemática principal radica en que la sociedad ha comenzado a tratar a la IA como un oráculo de verdad absoluta, cuando en realidad se trata de modelos matemáticos de predicción lingüística. Como investigador, Néstor Vidal señala que estos sistemas no "entienden" los fenómenos físicos que describen; simplemente calculan la probabilidad de que una palabra siga a otra.
Desde la óptica de la ciencia de datos, este proceso se define mediante la probabilidad condicionada. El sistema selecciona el término que estadísticamente "encaja" mejor en la oración, sin capacidad de verificar si el dato técnico, la cifra o la ley física citada corresponden a la realidad. Esto da lugar a las "alucinaciones", un fenómeno donde la IA inventa referencias bibliográficas, normativas legales o parámetros técnicos con una seguridad gramatical que engaña incluso a profesionales desprevenidos.
Una Herramienta, No un Autor
Néstor Vidal advierte que, en el campo de la accidentología vial y la investigación técnica de Incendios, confiar ciegamente en un reporte generado por IA es un acto de negligencia profesional.
Durante sus análisis, el investigador ha detectado que estos sistemas fallan sistemáticamente al interpretar variables dinámicas complejas, como la fatiga de materiales bajo condiciones climáticas extremas o la reconstrucción de trayectorias en terrenos con topografía irregular.
Los puntos críticos detectados son:
- Invención de fuentes: Generación de normativas técnicas que no existen en los registros oficiales.
- Inconsistencia lógica: Respuestas que se contradicen entre sí al profundizar en el razonamiento físico.
- Falta de trazabilidad: La imposibilidad de conocer el origen de un dato, lo que anula cualquier valor científico o probatorio.
- Errores en lecturas de satélites: Néstor Vidal ha descubierto fallas, en la lectura de estos, ya que el sistema puede clasificar una zona de sombras profundas en una montaña (como las de nuestra cordillera) como si fuera un cuerpo de agua (un lago o laguna), simplemente porque ambos tienen una firma espectral oscura en el infrarrojo.
- Las imágenes satelitales no son fotografías perfectas; están llenas de interferencias causadas por aerosoles, humedad y nubes. El Error: La IA puede interpretar una formación nubosa delgada o neblina como si fuera una característica del terreno (como un rastro de deforestación o una mancha de hidrocarburos).
- Muchas IAs se entrenan con datos de satélite de hemisferios norte o terrenos planos de Europa y EE. UU. El Error: Al aplicar estos modelos en la región de Bariloche, la IA falla al procesar la reflectancia de la nieve, el hielo o la vegetación autóctona (como el ñire o la lenga).
- La Realidad: Puede confundir ceniza volcánica antigua con suelo industrial o nieve con nubes, debido a que su entrenamiento no contempla la geología y biología específica de la Patagonia.
- Errores en la Reconstrucción Temporal. Al querer comparar imágenes de distintas fechas para detectar cambios, la IA suele fallar por los ángulos de incidencia del sol.
La Responsabilidad del Firmante
La advertencia del investigador también tiene un trasfondo legal y ético. En la actualidad, la firma de un informe técnico conlleva una responsabilidad civil y penal. Una IA no puede ser imputada ni puede testificar en un proceso judicial; es un objeto inerte.
Por tanto, el profesional que utiliza estos datos sin una validación humana rigurosa asume personalmente el riesgo de los errores del algoritmo. Conclusión La ciencia exige evidencia, no predicciones.
Para Néstor Vidal, la IA debe quedar relegada a una función de asistencia básica y nunca ser considerada una fuente de autoridad. La seguridad de la población y la seriedad de la investigación tecnológica en la actualidad dependen de que el juicio crítico del experto siga siendo el filtro final e innegociable frente a la "verdad sintética" de las máquinas.