Show simple item record

dc.contributor.advisorGarcía García, Miguel Ángel es_ES
dc.contributor.authorFragua Baeza, Ángeles_ES
dc.contributor.otherUAM. Departamento de Tecnología Electrónica y de las Comunicacioneses_ES
dc.date.accessioned2021-10-07T17:58:59Zen_US
dc.date.available2021-10-07T17:58:59Zen_US
dc.date.issued2021-06en_US
dc.identifier.urihttp://hdl.handle.net/10486/698211en_US
dc.description.abstractLas redes neuronales han evolucionado en todos los sentidos desde su primera aparición en 1943 a manos de Warren McCulloch. Estas primeras redes eran muy simples y tenían muchas limitaciones, pero después de poco más de una década surgió otro nuevo modelo de red neuronal llamado Perceptrón. Este modelo trajo consigo una nueva tendencia en el diseño de redes neuronales, pero poco después se encontró con ciertas limitaciones, como la imposibilidad de resolver problemas no separables linealmente como es el caso de la puerta lógica XOR. Fue en ese momento cuando surgió lo que se consideró como el primer “Invierno de la Inteligencia Artificial”. Este fue solventado con la aparición del mecanismo de la propagación hacia atrás, que permitiría entrenar redes neuronales profundas. Desde aquel momento hasta ahora, ha habido unos cuantos “Inviernos de la Inteligencia Artificial”, pero con el tiempo siempre se acaba encontrando una solución. Uno de los mayores problemas con los que se han topado las redes neuronales es su alto coste computacional, que sigue siendo ciertamente alto hoy en día. Pero, aun así, siguen surgiendo soluciones para poder ejecutar redes neuronales con recursos mínimos y alta eficiencia. Este es el motivo por el cual este trabajo tratará de hacer un estudio completo de las redes neuronales en dispositivos móviles, aprovechando las ventajas que ofrecen las herramientas de TensorFlow Lite. En el trabajo se partirá de unas redes preentrenadas en Keras, que pueden dividirse en dos grupos, las redes más consolidadas entre las que se verán VGG16 y ResNet50, y las enfocadas a dispositivos móviles, como es el caso de MobileNet y EfficientNet. Las redes están entrenadas bajo una base de datos de imágenes muy conocida llamada ImageNet, con el objetivo de ser capaces de clasificar dichas imágenes u otras muy similares. Estas redes serán convertidas a los modelos específicos de TensorFlow Lite, aplicándoles optimizadores en aquellos casos que sean posibles. Una vez se tiene el modelo en TensorFlow Lite se hará un estudio exhaustivo sobre el impacto de usar diferentes aceleraciones hardware y software al realizar la inferencia de las imágenes, mediante una serie de delegados como la GPU y NNAPI. También se introducirán estos nuevos modelos de TensorFlow Lite en una aplicación Android real, con la consiguiente introducción de los preprocesamientos de imágenes que requiera cada modelo. Esto permitirá terminar el proceso que implicaría querer introducir una red neuronal en un dispositivo móvil desde cero.es_ES
dc.format.extent73 pág.es_ES
dc.format.mimetypeapplication/pdfen_US
dc.language.isospaen_US
dc.subject.otherRed neuronales_ES
dc.subject.otherRed neuronal convolucionales_ES
dc.subject.otherClasificación de imágeneses_ES
dc.titleEjecución de redes neuronales en móviles Android con aceleración hardware mediante Keras y Tensorflow Litees_ES
dc.typebachelorThesisen_US
dc.subject.ecienciaTelecomunicacioneses_ES
dc.rights.ccReconocimiento – NoComercial – SinObraDerivadaes_ES
dc.rights.accessRightsopenAccessen_US
dc.facultadUAMEscuela Politécnica Superior


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record