Por: Redacción/
La inteligencia artificial plantea desafíos éticos que atraviesan las sociedades y exigen reconocer la responsabilidad de los científicos en los alcances de sus investigaciones, sostuvo en conferencia el doctor Christian Lemaître León, académico de la Unidad Cuajimalpa de la Universidad Autónoma Metropolitana (UAM).
Al participar en el Seminario de Discusión académica: inteligencia artificial y problemas sociales, realizado en la citada sede universitaria, señaló que ahora más que nunca “es necesario plantearnos cómo se concibe este campo de indagación y desarrollo, ya que su aplicación puede acentuar las desigualdades sociales”.
La carrera hacia la innovación, las nuevas aplicaciones de inteligencia artificial y la guerra entre los monopolios tecnológicos también pueden aumentar la desigualdad entre naciones y la incapacidad de controlar los oligopolios de Estados Unidos y China, por ejemplo.
El profesor-investigador del Departamento de Tecnologías de la Información recordó que en Egipto y la Grecia antigua fueron creados entes artificiales semejantes a la figura humana, pero fue entre los siglos XVII y XX que hubo avances significativos en el diseño de artefactos autónomos, planteando desde entonces los efectos nocivos de la tecnología y su utilización en la vida cotidiana, algo que se puede ver en el filme Metrópolis, de Fritz Lang.
El especialista en sistemas y organizaciones multiagente explicó que fue a partir de la segunda mitad del siglo XX cuando estas tecnologías se potenciaron, con la aparición de las primeras calculadoras, entre ellas las del matemático alemán Wilhelm Schickard y el físico y matemático francés Blaise Pascal; los intentos del ingeniero y matemático británico Charles Babbage, con su máquina analítica, y las propuestas de Alan Turing y otros científicos.
El salto monumental en estos desarrollos fue generado durante la Segunda Guerra Mundial, con los esfuerzos de los países beligerantes para la creación de computadoras electrónicas y otras tecnologías que dieran ventaja sobre sus adversarios.
No obstante, fue hasta 1956 cuando nació el término de inteligencia artificial acuñado por los científicos estadounidenses John McCarthy, Marvin Minsky y Claude Shannon, denominación que se basó más que en el contenido en un efecto mercadotécnico para recibir financiamiento de la Fundación Rockefeller.
Desde entonces este campo de desarrollo ha planteado muchas interrogantes y desafíos éticos, por ejemplo, en la carrera armamentista y los grandes proyectos integradores de robots para medios hostiles al ser humano.
El auge actual se puede entender por la confluencia del Web (World Wide Web) que posibilita la red Internet y el cloud computing –un paradigma que permite ofrecer servicios de computación a través de la nube–, es decir, la posibilidad de que los sistemas puedan entrar en relación directa con el usuario final.
Pese a los grandes avances, el doctor Lemaître León indicó que este campo puede encaminarse hacia un peligroso invierno frente a tendencias por mantener algoritmos opacos, el monopolio de captura y retención de información para usos políticos y de mercadotecnia y la falta de ética de empresas y profesionales de la inteligencia artificial que hacen uso de los datos personales de miles de millones de personas.
El especialista concluyó que es necesario cambiar la orientación sobre estos desarrollos, en particular en un país como México y, por ejemplo, centrar la investigación y el desarrollo con propósitos éticos y utilizar computadoras para propiciar el bienestar del ser humano.
Para ello es necesario proteger al usuario contra las intrusiones a la privacidad y otras violaciones a los derechos humanos, cooperar para asegurar un bienestar que incluya a las pequeñas comunidades y minorías, así como fortalecer los caminos contra la propiedad privada del conocimiento, con iniciativas como GNU y Creative Commons, entre otras.
No Comment