Information processing in passive elastic structures
Smart devices constantly monitor the environment and analyse the resulting stream of information, waiting for wake-up events ranging from a skipped heartbeat in a pacemaker to a verbal command in an intelligent speaker. In electro...
ver más
TEC2011-28250-C02-02
SISTEMAS BIO-INSPIRADOS DE RADIO COGNITIVA BASADOS EN ELECTR...
63K€
Cerrado
PID2020-120271RB-I00
ACELERADORES BASADOS EN FPGAS PARA REDES NEURONALES PROFUNDA...
77K€
Cerrado
TEC2015-66878-C3-1-R
INTEGRACION DE COMPONENTES Y ARQUITECTURAS PARA LA VISION EM...
198K€
Cerrado
TEC2010-21196-C02-01
SISTEMAS AUTONOMOS TOLERANTES A FALLOS BASADOS EN DISPOSITIV...
8K€
Cerrado
TIN2008-06856-C05-05
TECNOLOGIAS DE FUSION SENSORIAL AUDIO-VISUAL PARA SISTEMAS D...
27K€
Cerrado
PID2019-105556GB-C32
SENSORES CONTROLADOS POR EVENTOS PARA APLICACIONES CON INSPI...
84K€
Cerrado
Últimas noticias
27-11-2024:
Videojuegos y creaci...
Se abre la línea de ayuda pública: Ayudas para la promoción del sector del videojuego, del pódcast y otras formas de creación digital
27-11-2024:
DGIPYME
En las últimas 48 horas el Organismo DGIPYME ha otorgado 1 concesiones
Descripción del proyecto
Smart devices constantly monitor the environment and analyse the resulting stream of information, waiting for wake-up events ranging from a skipped heartbeat in a pacemaker to a verbal command in an intelligent speaker. In electronic devices, such constant workload requires reliable power and leads to significant battery drainage. The aim of INFOPASS is to answer the need for zero standby power, always-on sensing and processing, by inventing novel components based on architected elastic microstructures. We will focus on passive speech recognition: Vibrating structures that respond with large amplitudes only when excited by a particular spoken word. The components will be based on artificial neural networks of mechanical resonators -- benefiting from their ultra-low power dissipation and bypassing the inefficient transduction between acoustic and electric signals. The goal of passive speech recognition is challenging due to the required device complexity. Conventional micromechanical systems consist of a few resonators, while neural networks require thousands of nodes, pushing the limits of design and fabrication technologies by orders of magnitude. The proposed work builds on my invention of a two-step structure design method: Advanced responses are engineered by first encoding the desired response in an effective mass-spring model, which is then translated into a structural geometry. Compared to full-wave simulations, mass-spring models speed-up the optimisation process by more than a thousand-fold, allowing us to 'train' the structures on realistic speech corpuses. The invention of devices that passively perform complex information processing tasks will lead to mobile devices with longer battery life, always-on Internet-Of-Things devices that consume no standby power, and battery-less health monitoring sensors ? potentially impacting billions of devices.
Seleccionando "Aceptar todas las cookies" acepta el uso de cookies para ayudarnos a brindarle una mejor experiencia de usuario y para analizar el uso del sitio web. Al hacer clic en "Ajustar tus preferencias" puede elegir qué cookies permitir. Solo las cookies esenciales son necesarias para el correcto funcionamiento de nuestro sitio web y no se pueden rechazar.
Cookie settings
Nuestro sitio web almacena cuatro tipos de cookies. En cualquier momento puede elegir qué cookies acepta y cuáles rechaza. Puede obtener más información sobre qué son las cookies y qué tipos de cookies almacenamos en nuestra Política de cookies.
Son necesarias por razones técnicas. Sin ellas, este sitio web podría no funcionar correctamente.
Son necesarias para una funcionalidad específica en el sitio web. Sin ellos, algunas características pueden estar deshabilitadas.
Nos permite analizar el uso del sitio web y mejorar la experiencia del visitante.
Nos permite personalizar su experiencia y enviarle contenido y ofertas relevantes, en este sitio web y en otros sitios web.