Los 7 mandamientos de Google para la Inteligencia Artificial
Las tres leyes de la robótica de Asiimov se han quedado cortas. Estas leyes establecían que un robot no podía hacer daño a un humano, y que siempre debía cumplir sus órdenes siempre que no supongan hacer daño a un humano. Junto con ello, debe protegerse siempre que esa protección no implique hacer daño a un humano o no cumplir sus órdenes. Ahora, Google ha ido un paso más allá y ha elaborado un total de 7 leyes para la inteligencia artificial.
Así lo ha publicado Sundar Pichai, CEO de Google, en el blog de la compañía. La IA aprende y se adapta al entorno y tiene potencial para mejorar nuestro día a día. La compañía lo usa en Google Fotos, Gmail, Google Assistant, y decenas de productos. Fuera de la compañía también se está utilizando cada vez más (ámbitos científicos, medioambientales, etc).
Debido al auge y crecimiento que va a seguir teniendo la IA, la compañía ha anunciado los siguientes siete principios a modo de estándares sobre los que se basará su investigación, desarrollo, y decisiones empresariales.
1. Ser beneficioso a nivel social
Google cada vez influye más en la sociedad con sus tecnologías, afectando a sectores como salud, seguridad, energía, transporte, industria y entretenimiento. Por ello, tendrán en cuenta factores económicos y sociales para ver cuáles son los beneficios, peligros y riesgos de utilizar IA en un determinado segmento.
Al tener una aplicación mundial, tendrán en cuenta siempre factores culturales y sociales en todos los países del mundo, así como las leyes de cada uno antes de lanzarlo. Por ejemplo, en España el reconocimiento facial de Google Fotos no está disponible, algo que sí ocurre en Estados Unidos.
2. Evite crear o reforzar un sesgo injusto.
Dependiendo de la cultura, una información puede parecer injusta o sesgada, y la IA es capaz de detectar ese tipo de situaciones. Por ello, analizarán el impacto en la gente y la sociedad, sobre todo en aspectos que afecten a la raza, etnia, género, nacionalidad, ingresos, orientación sexual, habilidad, religión e ideología política.
3. Que su seguridad esté comprobada
Es importante que la IA sea segura, por lo que realizarán pruebas y prácticas de seguridad para evitar posibles resultados indeseados. Antes de lanzar un producto con IA, comprobarán su funcionamiento en entornos cerrados para monitorizarlo pormenorizadamente, y seguirán haciéndolo después de haberlo lanzado al público.
4. Que sea responsable con las personas
Toda IA deberá poder ser supervisada por un humano en cualquier momento.
5. Que respete los principios de privacidad
Google incorporará sus principios de privacidad en el desarrollo y uso de sus tecnologías con inteligencia artificial, incluyendo transparencia y control de los datos que maneja.
6. Que mantenga altos estándares de excelencia científica
La innovación tecnológica tiene como base el método científico, con elementos como la duda, el rigor, la integridad y la colaboración. La IA tiene el potencial darnos a conocer nuevos ámbitos de investigación y conocimiento en una gran cantidad de materias. Además, Google irá publicando sus descubrimientos e innovaciones en IA para que el mayor número posible de personas puedan acceder a ella.
7. Estar disponible para usos que estén de acuerdo con estos principios
Google evaluará los peligros y daños que puede tener la utilización de la IA en determinados campos. Por ello, evaluarán dónde y cómo se va a usar una IA, estableciendo inicialmente cuál va a ser su principal propósito y posibles usos y aplicaciones de esas tecnologías, analizando sus posibles riesgos.
También analizarán factores como la originalidad de esa tecnología, si existen soluciones similares, si la tecnología va a tener un impacto significativo en la vida de la gente, y cómo va a ser implementada en los productos de Google.
Aplicaciones de IA que Google no buscará
Mientras que estas son las leyes y normas que Google va a respetar, la compañía no va a implementar o desarrollar la IA en estas áreas:
- Tecnologías que puedan causar o es probable que causen daño. Si hay riesgo material en su aplicación, sólo lo implementarán si hay más ventajas que inconvenientes, aplicando limitaciones que permitan reducir los riesgos.
- Armas u otras tecnologías cuyo principal objetivo sea causar daño o herir a gente. Esto deja de lado la implementación en drones autónomos para la guerra.
- Tecnologías que recopilen información o la usen para espiar, violando leyes internacionales.
- Tecnologías cuyo propósito contravenga las principales leyes internacionales y los derechos humanos.
Con todo esto, Google busca un desarrollo sostenible y respetuoso de la IA en el futuro, con unas normas que van en consonancia con su carta de fundación publicada hace ya 14 años. Conforme vayan avanzando en su desarrollo buscarán concienciar de los importantes que son estas normas, así como mantener el rigor científico y el enfoque multidisciplinar.
La IA cada vez se usa en más ámbitos
Mientras que en ordenadores la IA no termina de estar presente, en los teléfonos móviles vamos a empezar a ver cada vez más aplicaciones de este segmento. Empresas como Apple o Huawei ya incorporan chips específicos para procesar tareas relacionadas con la inteligencia artificial.
Entre las principales aplicaciones para el uso personal encontramos las cámaras de los móviles, así como los asistentes de voz, que cada vez se están haciendo más inteligentes y van conociendo mejor la información que necesitamos o van ampliando los usos que podemos hacer de ellos. También sirven para realizar tareas como reconocer voces, y caras, o para filtrar spam en nuestros correos electrónicos
Más allá de estos usos, en los próximos años veremos un avance de la IA en la robótica, creando robots que sean capaces de pensar más como humanos. Por suerte, con las normas expuestas hoy por Google podremos evitar que se den casos como el de Skynet.
Via: www.adslzone.net