“Tenemos que aceptar que existe un techo para el machine learning” | Innovación

El desarrollo de la inteligencia artificial se encuentra en el sorprendente término en el que puede ser difícil reconocer si estamos chateando con una persona o con un robot en nuestra interacción con el servicio de atención al cliente de una empresa. El reto matemático quedó superado cuando Deep Blue venció a Kaspárov, pero el procesamiento del lenguaje natural y la computación cognitiva han permitido dar un paso hacia un modelo de comprensión más humano. El sistema Watson de IBM derrotó a dos históricos de Jeopardy!, un concurso de preguntas y respuestas estadounidense, quince años después de su victoria en el ajedrez. Sin embargo, todavía queda mucho por hacer.

Miquel Montero es un ingeniero de software y científico de datos que ha pasado los últimos 17 años tratando de entender cómo funciona nuestro cerebro. Estudió y analizó los últimos avances en machine learning, ciencias cognitivas, teoría de la información, psicología computación y neurolingüística. En 2014 lanzó Atomian, una compañía que desarrolla un software de inteligencia artificial, con la ambiciosa pretensión de que un ordenador llegue a entender la naturaleza de las cosas de la misma manera en que lo hace una persona.

Miquel Montero, CEO de Atomian

¿Qué aplicaciones tiene Atomian?

No pensamos en las soluciones que podía proveer nuestra tecnología hasta que la implementamos. Nuestro producto más exitoso es un software para hospitales al que el personal médico puede realizar preguntas en lenguaje natural. ‘¿A cuántos pacientes del doctor Sánchez con cardiopatía se les ha practicado una intervención en 2015?’ El sistema entiende la pregunta asociando los conceptos con símbolos y la responde después de consultar una base de datos interna. La segunda aplicación que hemos desarrollado consiste en un programa que clasifica y extrae datos clave alrededor de un texto concreto y estamos probando su uso en banca

¿Cómo funciona el cerebro de este software?

En oposición a otros sistemas de inteligencia artificial, hemos tratado de construir una forma de representar el mundo de forma conceptual para que la computadora lo pueda entender. Lo llamamos modelo de conocimiento universal, porque se le puede explicar cualquier forma de conocimiento sin restricciones, y está basado en piezas mínimas de conocimiento, a las que llamamos átomos. La diferencia fundamental es que este sistema no procesa el lenguaje natural como hacen la mayoría, lo entiende.

¿Cómo funciona un sistema de inteligencia artificial que procesa el lenguaje natural?

Procesar significa realizar operaciones matemáticas y heurísticas en base a un conjunto de palabras para después dar una respuesta. Los modelos conexionistas, que es como se llama a estos sistemas, están basados generalmente en estadística y tratamiento de big data. Las respuestas son pre-generadas; su conjunto siempre es finito. Cada una de estas hipótesis tiene asignado un valor dentro de un índice de confianza. Cuando les haces una pregunta, eligen la respuesta que tenga un mayor nivel de confianza.

¿Cómo encaja el machine learning en este modelo?

Lo que llamamos aprendizaje no es más que la reasignación de valores que hace un sistema conexionista a las hipótesis que contiene en función del nivel de acierto o fallo ante una pregunta determinada. Los sistemas que utilizan machine learning lo que hacen, a grandes rasgos, es reforzar o debilitar las conexiones entre los nodos. Tenemos que aceptar que existe un techo para esta tecnología.

¿Cuál es el problema con estos sistemas?

La inteligencia artificial basada en estos modelos es mayoritaria. El motor de búsqueda de Google o Siri optaron por el conexionismo. Su problema está en la forma en que estructuran el pensamiento. Pueden parecer muy inteligentes, pero tienen limitaciones. Si le dices a Siri que quieres saber el tiempo, te lo dirá. Pero si le dices que no quieres saber el tiempo, también te lo dirá, porque es la respuesta predefinida que considera más probable que estés buscando.

¿Cómo puede un software entender el lenguaje natural en lugar de procesarlo?

En contraposición a los sistemas de procesado, existen los modelos simbólicos. En ellos, el cerebro de la máquina se construye alrededor de conceptos y relaciones entre estos. No es una cuestión de palabras: las palabras son una representación simbólica de la realidad. De este modo estamos enseñándo al software un lenguaje universal. Un sistema que funcione de esta manera entiende una frase o pregunta como un conjunto de átomos de información vinculados entre ellos y no necesita generar reglas específicas para cada palabra; piensa y produce su respuesta en tiempo real.

Parece más similar al funcionamiento de una red neuronal

Solo hay que ver cómo entiende las relaciones morfosintácticas. Un sistema simbólico entiende, por ejemplo, que las palabras de clase cerrada, como las preposiciones o pronombres, corresponden a operaciones propias del lenguaje. Y entiende cómo un conector puede cambiar el sentido de una oración. La diferencia entre ‘Vengo a Barcelona’ o ‘Vengo de Barcelona’ no es un mero matiz; marca el propio significado de la frase.

Es la ironía de la paradoja de Moravec: lo más fácil para un humano es lo más difícil para un ordenador

Todavía queda mucho camino por recorrer cuando una máquina necesita decenas de millones de fotos de perros para distinguirlo de otra cosa con un 80% de precisión. Sin embargo, un niño de un año lo distingue con ver cuatro. En mi opinión, la solución está en la combinación de ambos sistemas: un modelo simbólico para procesar el lenguaje y uno conexionista para procesar las imágenes.

Source link

Samsung se alía con Google en realidad aumentada para plantar cara a Apple | Compañías

Samsung ha anunciado este miércoles en San Francisco una alianza con Google para la realidad aumentada. Un movimiento estratégico para plantar cara a Apple, más interesada en este prometedor negocio que en el de la realidad virtual. La firma surcoreana, que también es socia de Facebook y Oculus en realidad virtual (donde cuenta con sus gafas Gear VR), señaló que trabajarán junto a Google para “ampliar las capacidades de realidad aumentada de los smartphones de su familia Galaxy”.

Samsung dijo que los desarrolladores podrán usar la plataforma de desarrollo de contenidos de realidad aumentada de Google, ARCore, anunciada por el buscador este verano para generar contenidos inmersivos para Android. Según la firma asiática, la alianza permitirá llevar la realidad aumentada a todos los usuarios que disponen de Galaxy S8, S8+ y Galaxy Note8.  

La alianza entre ambas firmas llega después de que Apple lanzara en septiembre su nuevo sistema operativo iOS 11, con el que llegaba una novedad relevante: ARKit, la tecnología para realidad aumentada de Apple. Una solución que permite integrar elementos virtuales en entornos reales, lo que ofrece enormes posibilidades en formación, entretenimiento… Pero no solo. Ikea, por ejemplo, fue una de las primeras empresas en lanzar una app basada en esta tecnología para que los usuarios puedan ver cómo quedarían sus muebles en diferentes estancias de una casa.

La compañía asiática aprovechó también su conferencia para desarrolladores para presentar la nueva versión de su asistente virtual, Bixby 2.0, con mayores capacidades para entender lo que dice el usuario. Además, Samsung ha dado un paso importante y ha explicado que su nuevo asistente estará disponible en una amplia variedad de dispositivos, desde las smart TV a  frigoríficos. No quiere que su tecnología se quede rezagada respecto a Siri (Apple), Alexa (Amazon), Cortana (Microsoft) y Google Assistant, y para ello ha indicado que el SDK de Bixby estará disponible en primera instancia para determinados desarrolladores a través de un programa beta privado para en un futuro anunciar su disponibilidad al completo.

Samsung destacó que el nuevo Bixby ha mejorado su comprensión del lenguaje natural, de manera que es más fácil el reconocimiento de cada usuario y crear experiencias predictivas y personalizadas que permitan anticiparse a las necesidades de cada persona. La compañía señaló a Xataka que el nuevo Bixby 2.0 llegará en español (de EE UU) en la primera mitad de 2018. Hasta ahora, el asistente de Samsung no incorporaba el idioma español.

Durante el evento, Samsung también presentó su estrategia para el internet de las cosas y dio a conocer su visión de un mundo conectado a través de una plataforma de IoT accesible, abierta y en la nube, denominada SmartThings Cloud. Las compañía aseguró que esta plataforma constituirá uno de los ecosistemas de IoT más grandes del mundo. “Con SmartThings Cloud, los desarrolladores tienen acceso a una API compatible con todos los dispositivos que les permite crear soluciones conectadas y permitiendo acceso a un mayor número de personas. Esto proporcionará una interoperabilidad segura, servicios para el desarrollo de negocios y soluciones IoT para entornos industriales”.

Samsung mostró durante la conferencia un pequeño chip (Project Ambience) que se puede acoplar a una amplia variedad de objetos, lo que les permitirá, dijo, conectarse sin problemas. Según la compañía, la próxima generación de internet de las cosas será la “de la inteligencia de las cosas“, que combina IoT y la inteligencia para facilitar la vida de los usuarios. 

 

Source link

La inteligencia artificial ya está creando empleo… entre los jefes | Tendencias

La relación entre tecnología y empleo está continuamente en el centro del debate. ¿Habrá más o menos trabajo cuando los robots conquisten las fábricas? Es una cuestión que expertos y gurús intentan responder pero aún no han conseguido llegar a un acuerdo. Algunos de los estudios más recientes apuntan a que la colaboración entre humanos y máquinas inteligentes aumenta las  habilidades de los trabajadores. También que las empresas que utilizan la inteligencia artificial están creando más puestos de trabajo de los que destruyen, al menos a corto plazo, según un informe de Capgemini. Teniendo en cuenta estos datos, parece que no todo está perdido. Aunque hay truco: la mayoría de los puestos se están creando ahora mismo entre los directivos.

El informe Turning AI into concrete value: the successful implementers’ toolkit, realizado entre casi 1.000 empresas de siete sectores de todo el mundo, ha encontrado que el 83% de las empresas afirma que aplicar la inteligencia artificial está generando nuevos puestos de trabajo. Por ahora, el empleo se crea en las categorías profesionales más altas, en niveles de gerencia y alta dirección. En esta estadística, España se encuentra a la cabeza: según las conclusiones del informe, el 94% de las empresas españolas que utilizan IA están creando empleo.

Son precisamente estos puestos de jefes los menos sustituibles por robots. Los expertos que defienden que la revolución tecnológica eliminará empleos, se refieren sobre todo a los relacionados con las tareas más automáticas y que están por debajo de los puestos de mando. En ese futuro vaticinado, la inteligencia artificial vendrá para salvarnos de las tareas más tediosas y nos dejará tiempo para aquellas en las que se necesitan capacidades exclusivamente humanas, como la elaboración de juicios y las relacionadas con la empatía y las emociones.

Las empresas que creciendo con la inteligencia artificial tienen precisamente en común que la conciben como un medio para reducir el tiempo que los empleados dedican a las tareas rutinarias y administrativas y permitirles centrarse en las actividades de valor humano añadido. “Lo que de verdad queremos es que las personas con las que trabajamos puedan ofrecer el máximo de su capacidad”, explica Michael Natusch, responsable mundial de IA en Prudential.

A pesar de estos resultados —que analizan lo que está pasando ahora, no predicen qué será de nosotros en unos años—, existe preocupación sobre la posibilidad de que las máquinas desplacen a los trabajadores humanos; algo que está pasando ya en ciertos sectores. Pero la experiencia, por ejemplo, de General Electric, según su economista principal, Marco Annunziata, demuestra que para muchos puestos de trabajo la combinación de humanos y máquinas ofrece mejores resultados que cualquiera de los dos por separado. A pesar de que las fábricas emplean cada vez más las últimas tecnologías inteligentes y conectadas, los trabajadores humanos siguen siendo vitales para asegurar su rendimiento.

Según Annunziata, el trabajo entre humanos y máquinas puede aumentar las capacidades y habilidades de los empleados, lo que podría hacer que mejore su rendimiento. Uno de los ejemplos es el uso de gafas inteligentes de realidad aumentada (RA) en fábricas. En ese escenario, esta tecnología podría superponer las instrucciones de reparación de una máquina directamente sobre ella, con vídeos, gráficos y textos generados por ordenador. Según los autores del estudio, de esa forma “la realidad aumentada mejoraría la productividad porque estaría contribuyendo a desarrollar las habilidades de los trabajadores”.

Uno de los problemas con los que se están encontrando las empresas en este sentido es que la demanda de profesionales especializados ha crecido mucho más rápido que la formación necesaria para satisfacerla. “Creemos que la realidad aumentada será una pieza fundamental para cerrar la brecha de capacidades detrás de la falta de trabajadores industriales cualificados”, escribe Annunziata en HBR. Otros datos defienden también esta postura. Según el estudio desarrollado por Capgemini, la mayor parte de las empresas que han adoptado aplicaciones de inteligencia artificial de forma generalizada (el 89%) considera que esta facilita el desempeño de trabajos complejos.

Source link

La máquina de la moral y otras ideas para que los coches tomen decisiones correctas | Tendencias

De entre todas las dudas que suscitan los coches autónomos, las que tienen que ver con su capacidad para tomar decisiones son las que más debate generan. Muchos usuarios aún temen que el coche pueda cometer un error y estrellarse. Pero lo cierto es que se equivocan mucho menos que los conductores humanos y que el drama real puede venir porque el coche tome la decisión de estrellarse y sacrificar a los pasajeros. Visto así parece parte de la trama de La rebelión de las máquinas, pero es algo que podría suceder en una situación en la que el daño fuera inevitable y el coche tuviera que decidir entre atropellar a tres peatones o estrellarse y dañar a un pasajero. Es como el dilema de accionar una palanca para que un tren arrolle a una persona o no accionarla y dejar que arrolle a cinco. Pero en la vida real. En este escenario, ¿quién enseña a las máquinas a elegir? ¿Quién decide qué es más correcto en cada situación?

El Instituto Tecnológico de Massachusetts (MIT) trabaja con una máquina de la moral a la que han llamado Moral Machine. Es un sistema de inteligencia artificial que presenta distintos escenarios en los que los coches tienen que tomar decisiones a la hora de resolver un accidente con el menor número de víctimas posible. En estas situaciones se asume que frenar y evitar la colisión no es una opción: se trata de casos en los que el automóvil está 100% seguro de que alguien sufrirá daño pero puede actuar para seleccionar quién lo sufrirá.

Las situaciones se presentan en una página web donde cualquier persona puede jugar a decidir qué cree que debería hacer el coche en cada uno de los ejemplos. Los datos recogidos pasan a formar parte de un estudio sobre la ética de las máquinas autónomas elaborado por científicos del MIT Media Lab. En este caso, se están utilizando decisiones de la mayoría de las personas que participan para estudiar cómo los humanos creen que se deberían programar los coches autónomos. La inteligencia artificial se convierte una vez más en un reflejo de nuestras decisiones humanas.

A través de distintas preguntas, los investigadores tratan de establecer cuál sería el comportamiento más adecuado que debería tener un coche sin conductor desde un punto de vista moral para la mayoría. Analizando los resultados, los responsables han detectado que “casi por unanimidad la gente quiere coches que minimicen los daños totales”. Así lo explicaba Iyad Rahwan, director de Scalable Cooperation en el MIT Media Lab, en una entrevista para Vodafone One.

Pero aún minimizándose los daños, ¿quién debe salvarse con más prioridad? ¿Quién ha respetado las señales de tráfico? ¿Los más jóvenes? ¿Los más sanos? ¿Un médico frente a un ladrón? ¿Podrán los coches llegar a detectar si una mujer está embarazada o a qué se dedican los transeúntes? Los expertos no se atreven a vaticinarlo pero todo apunta a que esta tecnología está más limitada por las cuestiones morales que por sus posibilidades de desarrollo.

En colaboración con el MIT, los especialistas en ética y filósofos han encontrado un nicho en el que contribuir a la programación de las máquinas. Ya en 2015 se organizó un congreso en la Universidad de Stanford —uno de los puntos calientes en los que se están realizando estos debates— para reunir a ingenieros y filósofos y debatir sobre la naturaleza de las decisiones de los coches autónomos. Implementaron distintas configuraciones éticas dentro del software que controla los vehículos autónomos y luego probaron el código en simulaciones e incluso en vehículos reales.

Mientras que algunos trabajan en enseñar a pensar a las máquinas, otros defienden que los coches sin conductor no deberían tomar decisiones sobre la vida o la muerte, esa es al menos la teoría que defiende el filósofo Wendell Wallach, autor de A dangerous master: how to keep technology from slipping beyond our control. Según Wallach, asumir que los coches deberían tomar estas decisiones implica aceptar que pueden sustituirnos como agentes morales. Aunque es cierto que su procesador puede analizar los datos de la situación en milésimas de segundo y tomar una decisión, las máquinas carecen de empatía y de la capacidad de captar matices.

Más allá de las decisiones que debe tomar el coche, los pasajeros deben plantearse una cuestión fundamental: ¿te montarías en un coche que, llegado el momento, elegiría estrellarse y sacrificarte? La respuesta de la mayoría fue la primera que te viene a la mente: ¡no! Iyad Rahwan lo explica: “El problema viene cuando les preguntamos si comprarían ese coche. Su reacción fue: nunca compraría un coche que me pudiera hacer daño a mí bajo ninguna circunstancia”. Y Alfonso Rodríguez-Patón, profesor de la Universidad Politécnica de Madrid, está de acuerdo: “La mayoría de los ciudadanos van a querer que su coche les salve primero a ellos”, explica. “Piensan: “que mi coche sea seguro pero para mí primero”.

Pero probablemente en un futuro se regule el comportamiento ético de los coches totalmente autónomos alcanzando algún tipo de consenso ético. “Si no, cada fabricante podrá resolver estos dilemas de diferente manera”, añade Rodríguez-Patón. También señala que será difícil llegar a programar el comportamiento perfecto en todos los potenciales casos no anticipados o previstos. “Muchas de estas cuestiones no están todavía ni mucho menos resueltas e implican dilemas muy complejos. Que se preparen las compañías de seguros y los abogados”.

Source link

El Reino Unido compensará con robótica la marcha de trabajadores por el ‘brexit’ | Mercados

Las empresas británicas compensarán la pérdida prevista de trabajadores de la Unión Europea como consecuencia del “brexit” con el uso de “inteligencia artificial, robótica y automatización”, según un estudio de la consultora KPMG.

Después de que esta firma realizara el estudio “Efectos del brexit sobre los ciudadanos de la UE”, un responsable de KPMG, Antonio Hernández, ha indicado en un comunicado que las empresas británicas tendrán que esforzarse para “evitar una fuga de talento”.

Para ello, Hernández, socio responsable de KPMG en España para Brexit e Internacionalización, las compañías tendrán que actuar para evitar que se vaya un millón de trabajadores capacitados de países de la Unión Europea, que representan algo más del 3 por ciento de la población activa del Reino Unido.

El experto de la consultora, en este contexto, prevé un aumento de la competencia por el talento entre las empresas en los próximos años y añade que un gran número de ellas buscarán complementar sus plantillas mediante inteligencia artificial, robótica y automatización.

De acuerdo con la encuesta, el 45 por ciento de los ciudadanos europeos que trabajan en el Reino Unido planean quedarse, un 35 por ciento se está planteando marcharse, y el 8 por ciento (porcentaje que se correspondería con el millón de trabajadores antes citado) ya ha tomado la decisión de hacerlo.

Según el expertos, ya se están percibiendo consecuencias del “brexit”, como “una disminución de las solicitudes de matriculación de ciudadanos de la UE en las universidades británicas lo que, llegado el caso, podría provocar un problema en la cantera de especialistas de alto nivel, así como una carencia de químicos, lingüistas y otros profesionales”.

Según KPMG, el perfil de los empleados más proclives a abandonar el Reino Unido son los denominados “indey”, siglas inglesas que aluden a trabajadores independientes, solicitados, formados y jóvenes.

Así, señala que la mitad de los encuestados con doctorado y el 39 por ciento de los que cuentan con una titulación de posgrado afirman que se están planteando irse del Reino Unido. Además, el 52 por ciento de los que ganan entre 50.000 y 100.000 libras (entre 54.600 y 109.200 euros) planean marcharse o se lo están pensando.

Respecto a ese colectivo, Hernández ha indicado que, debido a los escasos esfuerzos efectuados por las empresas para retenerlos, “el Reino Unido está expuesto a perder parte de sus profesionales de tecnologías de la información, creativos, ingenieros y especialistas en finanzas, por citar algunos ejemplos”.

Por todo ello, y mientras la mitad de los trabajadores europeos esperan que sus empresas se dirijan a ellos con “una manifestación clara pidiéndoles que se queden”, KPMG aconseja a las empresas actuar para evitar la fuga de talento que puede darse vinculada al “brexit”.

Así, les ha propuesto, entre otras medidas, que tomen conciencia del riesgo al que se exponen por la marcha de esos empleados, que hablen con ellos, que decidan “una estrategia para apoyar al personal ante cualquier nuevo régimen de inscripción del Ministerio del Interior británico”, o que piensen en sus inversiones en formación y en la política de retribución y prestaciones.

Source link

Mi banco es ahora un robot | Innovación

La irrupción en el sector financiero de compañías fintech y los cambios en los hábitos de consumo de los clientes ha puesto patas arriba un negocio tan tradicional como el de la banca. “La noche es oscura y alberga terrores”, afirmaba Melisandre en Juego de Tronos. No es que los banqueros estén en medio de una lucha fratricida por el poder, como en la serie, pero quedarse rezagados en el uso de las nuevas tecnologías puede sumirlos en la oscuridad. A este entorno de cambios constantes hay que añadirle el aterrizaje de gigantes tecnológicos como Amazon, Google y Facebook, que compiten por quedarse con un trozo del pastel. Repasamos a continuación cómo están innovando las firmas tradicionales para evitar estos miedos.

  • Reconocimiento biométrico para verificar la identidad

Ni contraseñas de cuatro dígitos ni huellas digitales. La última apuesta de los bancos como mecanismo de verificación de identidad es el reconocimiento facial. El Banco Sabadell, a través de TSB, su marca en el Reino Unido, pondrá en marcha a partir de septiembre el reconocimiento de iris en su app como forma de autentificación. “Es el método más seguro que existe hoy en día. Tiene 266 características únicas frente a las 40 de las huellas. Además, con un simple vistazo podrás desbloquear la aplicación”, aseguran desde el Sabadell.

El BBVA y Bankia también se han sumado a la biometría. En el caso del BBVA para facilitar la apertura de una cuenta. El servicio de Alta Inmediata permite al futuro cliente darse de alta solo con la foto del DNI y un autorretrato. Terminado este trámite –y tras una videoconferencia con la entidad–, el usuario comienza a operar con el banco al instante gracias al sistema de verificación de identidad biométrico. Es decir, hacerse un selfie con el teléfono se convierte en el nuevo PIN y en el acceso a todos los servicios contratados.

  • De ir a la sucursal a hablar con una máquina

La inteligencia artificial ha encontrado también un hueco en el sector financiero. La robótica no se ha limitado a la mera construcción de máquinas. EVO Banco ha incorporado en su plataforma móvil una tecnología que posibilita a los usuarios operar directamente con la voz. “¿Cuánto he gastado en alimentación este año?” o “¿cuáles son mis movimientos de entre 20 y 50 euros en Carrefour este mes con mis tarjetas?” son algunas de las preguntas que responderá directamente el bot.

ImaginBank, lanzado en 2015 por CaixaBank, ha encontrado en la inteligencia artificial un motor de cambio. Los clientes pueden hablar con un robot para saber cuáles son las ofertas y promociones a su alcance. Este les guiará a través de aquellas que se adapten mejor a sus intereses y a su lugar de residencia debido a que tiene a su disposición todos los datos del usuario, desde las operaciones más frecuentes hasta cómo suele gastar el dinero.

  • El móvil, un pasaporte bancario

El 81% de los españoles utiliza un smartphone diariamente, según el último informe de Google Consumer Barometer Report de 2017. Con esta penetración de los móviles en la sociedad, los bancos han abierto un nuevo campo de batalla con las fintech y otro tipo de empresas para enarbolar la bandera de la innovación. El Santander, por ejemplo, permite el pago con el móvil –tanto con Wallet como con Apple Pay– en comercios que admitan este medio de transacción.

Las aplicaciones juegan también un papel central en el desarrollo de las nuevas tecnologías en el sector financiero. El BBVA, para evitar que sus clientes tengan que desplazarse a una oficina, permite activar y suspender temporalmente las tarjetas de débito y crédito. Bankia también ofrece este servicio al que le añade la posibilidad de un bloqueo sin necesidad de contactar directamente con la entidad.

  • Adiós al plástico, hola smartphone

Las tarjetas se están quedando rezagadas como objeto indispensable para retirar dinero de un cajero. El Santander, que ha comenzado a instalar 2.000 cajeros contacless, permite sacar efectivo y realizar otro tipo de operaciones tan solo con acercar el teléfono móvil. ImaginBank ha seguido una estrategia parecida, aunque con ciertos matices. El cliente puede duplicar su tarjeta tradicional, la de plástico, en pulseras wearable o contar con un sticker Visa contacless, que se adhiere, por ejemplo, a un dispositivo móvil. Este sticker también lo ofrece Cajamar y funciona exactamente igual que cualquier tarjeta.

Los denostados mensajes de texto son un aliado para los bancos. Ante su desuso, el BBVA o el Sabadell le han encontrado una gran utilidad en los cajeros automáticos. Solo con un SMS, el cliente puede enviar dinero a otro teléfono y retirarlo en cualquiera de los cajeros con el código que se incluye en el mensaje. De igual forma, gracias a la colaboración con la app de Bizum, ambas entidades permiten el pago desde otros servicios de mensajería, como WhatsApp.

‘Open data’ al servicio del sector financiero

El Banco Sabadell, de la mano de su venture builder, Innocells, ha puesto en marcha Kelvin Atlas, el portal público de open data más amplio del sector financiero español. Desde el banco aseguran que permitirá a cualquier usuario conocer en detalle dinámicas económicas, comerciales y turísticas mediante un mapa interactivo. “Gracias al uso de datos totalmente anónimos y protegidos se puede conocer la evolución del consumo en cualquier territorio”, detallan. La intención de la entidad es ofrecer una herramienta que aporte una fotografía actualizada que permita conocer cuáles son los sectores más activos en una región o en qué áreas de una ciudad se concentra la mayor actividad empresarial.

Source link

Microsoft: “La inteligencia artificial actual no alcanza el nivel de un bebé” | Tendencias

Anirudn Koul dirige su teléfono al público. Seeing AI responde: “Probablemente un grupo de gente rodeando algo”. Se acerca a uno de sus integrantes, que sonríe a la cámara: “Un hombre de 59 años y pelo cano que parece feliz”. Apunta a la ventana: “Probablemente un puente sobre un río en una ciudad”. Al fondo, el Támesis resplandece a su paso por Lambeth Bridge. “Reconoce lo que tengamos delante: caras, billetes, chocolatinas…”, afirma Koul, especializado en deep learning. Él no necesita Seeing AI para identificar personas o productos, leer textos, mirar por la ventana. Para Shaqib Shaik, desarrollador de software líder en el proyecto y ciego, la voz que sale del smartphone es esencial. “Cuando detecta algo, empieza a emitir señales sonoras que ayudan a mejorar el enfoque. Después procesa la imagen y genera la descripción”, asegura.

InnerEye. Microsoft Research

Seeing AI bebe de las APIs de Microsoft Cognitive Service y de 26 años de investigación que comenzaron en un laboratorio británico, el primero de la compañía fuera de los Estados Unidos. “Estamos entrando en la fase más extraordinaria de la revolución digital. Lo que estamos viendo es una transformación profunda en los sistemas de computación, la mayor desde que nacieron”, asegura Chris Bishop, director del Microsoft Research Lab de Cambridge. Bajo su batuta se han combinado sistemas de machine learning y visión artificial para crear aplicaciones como InnerEye, que asiste a los profesionales médicos en el análisis de imágenes y reduce a mínimos imposibles el tiempo necesario para delimitar, por ejemplo, el contorno de un tumor.

En los últimos 60 años ha habido un goteo de contribuciones que ya ni consideramos AI

Eric Horvitz, Microsoft Research

La actualidad de la inteligencia artificial (AI) dejaría pasmados a quienes la bautizaron, en 1955, y propusieron un campo en el que desarrollar tecnologías para hacer que las máquinas resolvieran problemas reservados para las competencias humanas. “Ahora las cosas se mueven muy rápido, pero durante los últimos sesenta años ha habido un goteo de contribuciones que ya forman parte de nuestro día a día y ni consideramos AI”, señala Eric Horvitz, director del área de investigación de Microsoft.

Harry Shum (Microsoft)

Sin embargo, todo este progreso aún palidece ante la capacidad humana en la más elemental de sus formas. “Ni siquiera estamos al nivel de un bebé”, sentencia Harry Shum, vicepresidente ejecutivo de la división de AI. “El cerebro de un niño puede procesar todo tipo de estímulos: luz, sonido, comodidad… Esto puede parecer sencillo para un humano, pero es arduo para la inteligencia artificial”.

¿Cómo es posible que las capacidades de un recién nacido superen a sistemas capaces de delinear un órgano, cambiar la hora de un vuelo o escribir un libro de poesía? “En 1955 se definieron los pilares de lo que, parece, se nos da bien a los seres humanos: percepción, aprendizaje, raciocinio y lenguaje natural. Los cuatro persisten hoy, pero son campos que han crecido y avanzado en diferentes direcciones”, explica Horvitz. Así, somos capaces de agilizar y automatizar tareas de gran exigencia, pero de manera aislada y dentro de entornos con poco margen para el azar. “Estamos hablando de sistemas entrenados en laboratorios, el mundo es mucho más grande y complejo”.

Queremos combinar nuestras competencias para crear sinfonías de inteligencia

Eric Horvitz, Microsoft Research

La solución de Microsoft para fusionar los significativos pero atomizados avances del último cuarto de siglo y progresar en el desarrollo de una inteligencia artificial general pasa por reagrupar el rebaño y devolverlo al redil. “Queremos combinar estas competencias para crear sinfonías de inteligencia que nos permitan avanzar en nuestra comprensión del intelecto humano. Hacer esto bien es un reto técnico, social, psicológico y organizacional”, resume Horvitz.

“Si diseñamos para el futuro, es esencial que invoquemos lo aprendido del pasado”, afirma Emma Williams, responsable del diseño de UX (experiencia de usuario) en AI. Según ella, como homo sapiens y responsables de la progresiva desaparición del resto de homínidos que convivían con nosotros hace 300.000 años, estamos evolutiva e intuitivamente programados para percibir y temer la amenaza de otra especie dominante dotada de conciencia. Esta convicción marca los principios de diseño para la era de la inteligencia artificial: “Los humanos son el centro de lo que estamos intentando crear. Queremos equilibrar la inteligencia tradicional (IQ) y la emocional (EQ), honrar los valores sociales y el contexto que nos rodea; y seguir progresando”, resume Williams.

Ilustración de un juguete

En la creación de esta interfaz están participando psicólogos, antropólogos y hasta músicos que modularán la voz de la AI del futuro. “Durante cuarenta años, los humanos hemos tenido que aprender cómo hablar con los ordenadores. Mi padre es un genio, un matemático genial, pero tengo que enseñarle cómo insertar palabras clave en un buscador para encontrar los resultados que busca”, comenta Williams. Ahora estamos en la víspera de un mundo donde los ordenadores podrán hablar a cualquiera, desde al niño de cinco años al anciano de 85. “Creo sinceramente que vamos a cerrar la brecha digital entre generaciones”, afirma.

Por lo pronto, Microsoft sigue perdiendo en la competición contra el cerebro humano, capaz de procesar unos 14 millones de estímulos por minuto -por supuesto, la mayoría de ellos en segundo plano- y de soñar, crecer, crear arte e historias, expresar emociones, sentir y entender cómo se sienten otros. “Ahora tenemos muchísimo impulso, pero antes de emocionarnos demasiado debemos entender qué nos hace humanos y únicos”, admite Harry Shum.

Source link