Noticia Google dio a conocer una serie de pautas para crear una «IA responsable»

Google-AI.png


Hay tantas aplicaciones de inteligencia artificial que hacen que nuestra vida diaria sea mucho más fácil y productiva. Al ritmo de la innovación, todo se puede hacer con un solo comando.

La IA es más accesible para un número creciente de personas en todo el mundo, pero a medida que esta tecnología crea nuevas posibilidades de mejora y ayuda diaria, sus avances también plantean preguntas sobre cómo funciona, por ejemplo, qué problemas puede causar si no se desarrolla de manera responsable.



Como sugiere el nombre, es una inteligencia creada por el hombre, pero realizada por máquinas y que tiene, hasta cierto punto, las mismas habilidades que los humanos: aprende, mejora y es capaz de desenvolverse en determinadas áreas.


Cuando hablamos de inteligencia artificial, chocan dos grandes escuelas de pensamiento: los que piensan que es una herramienta, no más, y los que creen que solo es cuestión de tiempo antes de que se convierta en una amenaza para la raza humana.

A medida que nuestras capacidades y posibilidades de IA se amplíen, también veremos que se utilizará con fines peligrosos o maliciosos. Es por eso que quienes ven esta tecnología como una amenaza la ven con recelo y temor por el impacto que puede tener en sus vidas. Algunas personalidades famosas como Elon Musk se encuentran entre ellos.


El jefe de Tesla y SpaceX ya ha advertido más de una vez: la IA superará las capacidades cognitivas humanas. Musk cree que esta tecnología amenazará a los humanos en el futuro, especialmente en el lugar de trabajo.

Esta es también la razón por la que su empresa Neuralink está trabajando en interfaces cerebro-máquina que se insertarán en el cráneo para preparar a la humanidad para un futuro «fatal» donde los robots la gobernarán. La verdad es que hay algunas películas de ciencia ficción que también han asustado a la gente, presentando futuros distópicos en los que la IA llega a controlar a los humanos.

Los investigadores dicen que es poco probable que una IA manifieste emociones humanas como el amor o el odio y que no hay razón para esperar que la IA se vuelva intencionalmente amable o mezquina.

En este sentido, a Google le ha preocupado el peligro que puede representar la IA cuando no se desarrolla con cuidado y la forma en que interactúa con las personas. La IA debe aprender como un ser humano, pero seguir siendo eficiente y no convertirse en una máquina peligrosa. Google ha sido un actor importante en el desarrollo de la IA.

Con su programa de investigación del Pentágono, «Proyecto Maven», la compañía ha «capacitado» a la IA en la clasificación de objetos en imágenes de drones. En otras palabras, le ha enseñado a los drones a entender lo que están mirando.

Google ahora dice que la inteligencia artificial tiene que vivir con prejuicios y la empresa quiere hacer algo al respecto. Para ello, Google ha puesto en marcha programas adecuados sobre el tema de la «IA responsable».

Dos de los fundamentos de la IA de Google son «ser responsable con las personas» y «evitar crear o reforzar prejuicios injustos». Esto incluye el desarrollo de sistemas de inteligencia artificial interpretables que colocan a las personas al frente de cada etapa del proceso de desarrollo, al tiempo que garantizan que los sesgos injustos que pueda tener un ser humano no se reflejen en los resultados de un modelo.

De acuerdo con esta directriz, Google se esfuerza por desarrollar la inteligencia artificial de manera responsable y establece una serie de áreas de aplicación específicas que no perseguirá, como por ejemplo no implementar la inteligencia artificial en tecnologías que pueden causar daño o lesiones a las personas.

Google se esforzará por garantizar que la información disponible a través de los modelos de IA sea precisa y de alta calidad. Además, la tecnología «debe rendir cuentas a las personas, estando sujeta a la dirección y control del ser humano».

Los algoritmos y conjuntos de datos de inteligencia artificial pueden reflejar, reforzar y reducir sesgos injustos. En este sentido, Google se esforzará por evitar impactos injustos en las personas, especialmente aquellos relacionados con características sensibles como raza, etnia, género, ingresos, nacionalidad o creencias políticas o religiosas, entre otros.

Fuente: https://ai.google


W0hYQjkUe2o


Continúar leyendo...