Ética tiene prioridad por encima de la Inteligencia Artificial: Dr. Brian Patrick Green

Mar, 21 Mayo 2024
El especialista ofrece la conferencia How to Ethically Develop and Use AI Systems en la IBERO
Director en Centro Markkula de Ética Aplicada pide estudiar riesgos y ventajas al usar tecnologías avanzadas
"¿Cómo se puede confiar en las tecnologías, incluso si no son tan buenas?", cuestiona
Mejorar confianza del usuario y facilitar corrección de errores en productos de IA, aconseja
  • Las nuevas tecnologías deben ser utilizadas de manera responsable para que sean confiables como herramientas. (Ilustración elaborada con Firefly).

La ética tiene prioridad por encima de la Inteligencia Artificial (IA), el aprendizaje automático, los sistemas autónomos inteligentes y el reconocimiento facial; resulta primordial estudiar los riesgos que plantean estas tecnologías avanzadas en la humanidad, afirmó el Doctor (Dr.) Brian Patrick Green, Director de Tecnología y Ética en el Centro Markkula de Ética Aplicada de la Universidad de Santa Clara.

El especialista ofreció la conferencia How to Ethically Develop and Use AI Systems en el Auditorio Fernando Bustos de la Universidad Iberoamericana (IBERO), donde enumeró los desafíos éticos aplicados en productos tecnológicos y cuestionó a la audiencia si la IA debería hacer lo que la gente quiere que haga o si la IA debería hacer lo correcto y racional independientemente de lo que la gente quiera.

“Si tienes más tecnología (como la IA), tienes más poder. Te da más opciones y más responsabilidad, aquí es donde la ética entra en juego. ¿Cuál es la forma correcta de usar ese poder?, ¿cómo se puede confiar en las tecnologías, incluso si no son tan buenas? Las tecnologías tienen un propósito y es un proceso que te lleva a diferentes espacios éticos en la toma de decisiones, y a la vez, genera incertidumbre hacia el futuro”, acotó.

El Dr. Brian Patrick Green, Director de Tecnología y Ética en el Centro Markkula de Ética Aplicada de la Universidad de Santa Clara. 

 

Al contestar algunas preguntas de la audiencia, afirmó que no se trata solo de evitar los daños, sino de buscar resultados positivos, lo que implica considerar cómo las nuevas tecnologías afectarán a la sociedad y asegurar que se desarrollen y utilicen de manera responsable para que sean confiables como herramientas, lo que trae consigo, nuevas opciones y responsabilidades.

Indicó que un principio esencial es la transparencia, pues los sistemas de IA deben ser comprensibles y sus decisiones deben poder ser explicadas, para mejorar la confianza del usuario en la tecnología y facilitar la identificación y corrección de errores o sesgos, lo que implica que desarrolladores y organizaciones sean responsables de las acciones y decisiones tomadas por los sistemas de IA.

¿Quién es el Dr. Brian Patrick Green?

El Dr. Green forma parte de un grupo de investigación que analiza tres casos de estudio del Foro Económico Mundial sobre prácticas éticas en Microsoft, Salesforce e IBM. Ha trabajado con la Asociación para la IA, el Dicasterio para la Cultura y la Educación del Vaticano y supervisa becas de pregrado en Santa Clara en ética tecnológica y ética ambiental.

 

Durante su exposición, el experto presentó diferentes casos de estudio en estas empresas, las cuales desde su experiencia han desarrollado herramientas para incorporar la ética en el proceso de diseño de sus productos, con el fin de que se respeten principios como transparencia, privacidad, inclusividad, justicia, confianza, seguridad y responsabilidad.

También, destacó la importancia sobre los riesgos y ventajas que genera la IA en las universidades, las empresas, las organizaciones y los gobiernos, para que colaboren y diseñen herramientas que aseguren un desarrollo tecnológico responsable que enfrente los desafíos éticos que surgirán en el futuro con estas tecnologías avanzadas.

El Vaticano, apuntó, tiene múltiples iniciativas sobre AI y organizaciones como la ONU, la Unión Europea o gobiernos como Estados Unidos y China han tratado de ordenar la controversia que genera el uso de esta tecnología y los errores éticos en su desarrollo, con el objetivo de que la regulación se canalice a la innovación y deje beneficios sociales a la humanidad.

Refirió que la ética es un tema complejo que varía a nivel global, pues lo que funciona en una cultura o en el sistema legal de un país puede no ser adecuado en otro, por lo que resulta necesario comprender estas diferencias cruciales para desarrollar IA éticamente adecuada y efectiva a nivel mundial.

El dato de la Universidad de Santa Clara en IA

Como varios elementos de la tradición jesuita, el compromiso de la Universidad de Santa Clara con la ética se remonta a su fundación en 1851. Desde entonces, el estudio de la ética forma parte del compromiso de la institución para educar a las personas.

El Centro Markkula de Ética Aplicada ha mantenido su enfoque en el análisis riguroso de los problemas éticos del mundo actual, mediante el desarrollo de herramientas que abordan esos problemas y se difunden a la mayor cantidad posible de personas.

Texto: Luis Reyes

Fotos: Luis Reyes

Notas relacionadas:

 

Las opiniones y puntos de vista vertidos en este comunicado son de exclusiva responsabilidad de quienes los emiten
y no representan necesariamente el pensamiento ni la línea editorial de la Universidad Iberoamericana.

Para mayor información sobre este comunicado llamar a los teléfonos: (55) 59 50 40 00, Ext. 7594, 7759
Comunicación Institucional de la Universidad Iberoamericana Ciudad de México
Prol. Paseo de la Reforma 880, edificio F, 1er piso, Col. Lomas de Santa Fe, C.P. 01219