Las personas deben poder controlar cualquier decisión que tome la IA, que debe ser confiable.

La firma alemana Bosch ha publicado las directrices éticas para el uso de la inteligencia artificial (IA) en sus productos inteligentes. El código de ética de Bosch se basa en la siguiente máxima: la IA debe ser segura, robusta y explicable, y las personas deben ser el árbitro último sobre cualquier decisión basada en IA.

La IA tiene una importancia clave para Bosch. Su objetivo para 2025 es que cada uno de sus productos contenga IA o haya sido desarrollado o fabricado con su ayuda. En los próximos dos años Bosch formará a 20.000 empleados en el uso de la IA, y su código de ética de IA será parte de este programa de formación.

Las personas deben mantener el control.

Bosch describe tres enfoques posibles, y todos ellos tienen en común lo siguiente: en los productos de Bosch basados en IA, las personas deben mantener el control sobre cualquier decisión que tome la tecnología.

En el primer enfoque, «Human-in-command», la IA es únicamente una ayuda, como en aplicaciones de ayuda para la toma de decisiones.

En el segundo enfoque, «Human-in-the-loop», un sistema inteligente toma de forma autónoma decisiones que las personas pueden anular en cualquier momento. Un ejemplo sería la conducción parcialmente automatizada.

El tercer enfoque, «Human-on-the-loop», se refiere a la tecnología inteligente, como los sistemas de frenado de emergencia. Durante el desarrollo los ingenieros definen ciertos parámetros, los cuales son ajustables y son los que proporcionan la base sobre la que la IA decide si activar el sistema o no.

Construyendo confianza juntos.

Bosch quiere que sus productos basados en IA sean seguros, robustos y explicables. En definitiva, confiables.

Bosch también espera que su código de ética de IA contribuya al debate público sobre la inteligencia artificial. Según la compañía, para establecer la confianza en los sistemas inteligentes, también será necesario un diálogo estrecho entre los responsables políticos, la comunidad científica y la sociedad en general. Por eso, Bosch se ha adherido al High-Level Expert Group on Artificial Intelligence (Grupo de Expertos de Alto Nivel en IA), un organismo designado por la Comisión Europea para analizar temas como la dimensión ética de la IA.

En una red mundial que hoy comprende siete localizaciones, y en colaboración con la Universidad de Ámsterdam y la Universidad Carnegie Mellon (Pittsburgh, EEUU), Bosch desarrolla aplicaciones de IA que sean más seguras y confiables. De igual modo, como miembro fundador de la alianza de investigación Cyber Valley en Baden-Württemberg, Bosch invertirá 100 millones de euros en la construcción de un campus de IA, donde 700 de sus expertos trabajarán con investigadores externos y empleados de empresas emergentes.

Por último, el Digital Trust Forum, un comité creado por Bosch, busca fomentar un estrecho diálogo entre expertos de las principales asociaciones y organizaciones internacionales. Sus once miembros se reunieron en el Bosch ConnectedWorld (BCW) 2020.

Bosch ConnectedWorld (BCW) 2020.

La compañía presentó estas pautas éticas en la 7ª edición de Bosch ConnectedWorld (BCW), su conferencia anual sobre el Internet de las Cosas, celebrada los pasados 19 y 20 de febrero en Berlín. El evento reunió a más de 80 expositores que mostraron las últimas tendencias y desarrollos en el mundo conectado. Hubo más de 170 ponentes presentes, entre ellos directivos de Bosch, Siemens, Tüv Sud y Microsoft. Tuvieron lugar varias conferencias magistrales, una gran exposición y un «hackaton».


  
© 2020 - MARKET VISION.

 

Breves Actualidad