Petróleo y Gas

La inteligencia artificial y su impacto en la industria de oil & gas

La clave es cómo avanzar hacia el desarrollo de proyectos cada vez más confiables, donde las empresas necesitan focalizar sus objetivos.

El uso intensivo y la implementación de la inteligencia artificial en diversos campos – desde la salud hasta la manufactura, el petróleo, el consumo masivo, las finanzas o cualquier otro sector productivo – puede plantear preocupaciones éticas, como la privacidad, la discriminación, la seguridad o la fiabilidad de los algoritmos, y el sesgo en los datos.

Así lo entiende el especialista Carlos Lizarralde, CEO de 7Puentes, quien considera que «el tema ético en el sector oil & gas sigue siendo un aspecto central en el que las empresas necesitan enfocar su atención e intervención».

«El problema de la robustez, fiabilidad y seguridad de los modelos es claro, y radica en cómo se comportan los modelos de inteligencia artificial: las empresas energéticas clasifican el nivel de riesgo en las operaciones diarias, el riesgo de accidentes o la seguridad de las instalaciones, por lo que la pregunta es quién es responsable si el modelo clasifica mal estos riesgos. Y, por supuesto, no hay verificación de estos sesgos en el modelo», explicó.

Y agregó que «esto es claramente diferente a la responsabilidad de los científicos de datos, quienes no necesitan una licencia o firma legal para actuar. Esto es algo a lo que no le damos tanta importancia, y cada vez más empresas tendrán que hacer algo al respecto. Y el sector energético, que utiliza IA de manera intensiva, se verá cada vez más afectado por este problema».

Para construir modelos más justos Lizarralde, plantea que hay que entender que se trabaja con datos, que son estadísticos, y que deben representar de manera justa y equitativa a toda la población considerada, con todas sus diferencias y peculiaridades. «Se trata de garantizar resultados más precisos y justos», añadió.

También se refirió al tema de la robustez que tiene que ver con hacer los modelos tan seguros que no puedan ser hackeados.«Esto no solo es el caso de los autos autónomos, que pueden tener brechas de seguridad, sino también con los autos inteligentes, que también tienen sus controles que pueden ser violados, como los frenos o la dirección», ejemplificó.

Y apuntó: «Así que un modelo puede ser súper ético, pero el aspecto de la robustez implica que pueden perturbarse los datos del modelo y confundirlo. Entonces, el modelo tiene que ser lo suficientemente robusto».

El problema de la privacidad es otro de los aspectos clave.

«Si el modelo de aprendizaje automático ha sido entrenado con información que no es pública, que es privada y que viola ciertos derechos de propiedad intelectual, estamos en problemas. Por ejemplo, dados los tremendos avances en biomedicina, en algún momento podremos secuenciar todos los genomas, lo que es información personal sobre el genoma humano, pero esos datos son propiedad de cada individuo», comentó el experto.

Y concluyó: «Tal vez en el futuro demos nuestro consentimiento para que estos datos privados se utilicen en el entrenamiento de inteligencia artificial, si nos beneficia de alguna manera. Mientras tanto, el debate está abierto. Y aquí es donde entra en juego la cuestión de cómo seguiremos avanzando con la ayuda de la inteligencia artificial, cómo cambiará la fuente de empleo y también su responsabilidad legal».

 Por Daniel Barneda

Mejor Energía

Sitio protegido por Google reCAPTCHA. Ver políticas de privacidad y términos de servicio.

Soporte Web Efemosse