En 40 años, Google podría ser quien certifique qué es ético: Raúl Monroy
(Publicado el 07/09/20) Texto: Antimio Cruz Foto: Captura de pantalla
La comunidad científica y los filósofos deben trabajar juntos para regular los programas de inteligencia artificial y definir con claridad cuáles son los procesos de software que se apegan a principios éticos, pues actualmente sólo Google está desarrollando programas de vigilancia de conductas éticas en internet y es terrible pensar que dentro de 40 años esa compañía sea quien certifique lo que está bien y lo que está mal, expuso Raúl Monroy, doctor en Inteligencia Artificial por la Universidad de Edimburgo y profesor en el Tec de Monterrey, durante un foro convocado por la Feria Universitaria del Libro (FUL 33), de la Universidad Autónoma del Estado de Hidalgo.
La mesa de análisis Ética e impacto social de la Inteligencia Artificial fue moderada por el Presidente de la Sociedad Mexicana de Inteligencia Artificial, Felix Castro, y además de la participación del doctor Raúl Monroy permitió escuchar las reflexiones de Wanda Muñoz, miembro de la Campaña contra Robots Asesinos y representante en México de la Red de Seguridad Humana en América Latina y el Caribe (SEHLAC); así como de Humberto Sossa Azuela, doctor del Instituto Politécnico de Grenoble, Francia, y jefe del Laboratorio de Robótica y Mecatrónica, del Centro de Investigación en Computación, del Instituto Politécnico Nacional (IPN) de México. Con ellos también dialogó María Vanina Martínez, investigadora que en 2018 fue incluida por la revista IEEE Inteligent Systems entre las 10 promesas en investigación en Inteligencia Artificial.
“Lo que hagamos ahora en Inteligencia Artificial va a moldear el futuro de todo el planeta dentro de 40 años. Es por eso que me preocupa que compañías como Google se apropien de la ética, con proyectos como Etic as a service y que busque monetizarlos. Esto temeroso pensar que dentro de 40 años una compañía de tecnología de la información como Google sea quien certifique lo que es ético y lo que no. El problema radica en que se puede construir un tipo de ética que no considere los valores de los distintos grupos humanos y, por lo tanto, que no sea inclusiva o incluyente”, indicó Monroy, quien es líder del grupo de modelos de aprendizaje computacional en el Tec de Monterrey, Campus Estado de México.
Límites de la autonomía
Durante su participación en el foro, Wanda Muñoz explicó el objetivo de la Campaña contra Robots Asesinos, que es un campo de investigación promovido por ejércitos de diferentes países y enfocó su atención a la idea de que la sociedad civil organizada tiene que estar presente en la definición de los principios éticos a los que debe apegarse el desarrollo de inteligencia artificial.
“Desde luego hay que discutir si nos hacen falta armas autónomas, pero también hay que pensar ¿No sería más útil usar la inteligencia artificial para salvar vidas detectando minas y explosivos sembrados en campos; o para prever brotes de hambruna en determinadas regiones o identificar el surgimiento de epidemias en granjas avícolas?”.
Sobre esta misma línea de pensamiento, Humberto Sossa explicó que ya hay trabajo en el campo de inteligencia artificial para monitorea el estado de salud de personas en sus hogares o para tomar muestras biológicas potencialmente infecciosas con ayuda de robots; además de campos donde se usa mucha tecnología 4.0 como es el desarrollo de nuevos fármacos, vacunas y coadyuvantes.
La doctora Vanina coincidió en que es importante que la sociedad civil esté presente en la definición de los valores éticos que deben estar presentes en los desarrollos de Inteligencia Artificial para evitar que se genere un desastre, pero también dijo que hay que trabajar mucho para definir cómo se concretan los valores éticos desde el punto de vista tecnológico y cómo se desarrolla la tecnología que genere esos resultados éticos pues no se habla de cualquier tipo de herramienta y, además, se han identificado cerca de 80 conjuntos éticos diferentes.