Estudio de mejora de una planta de producción de sulfato de aluminio
Autoría
N.A.L.
Máster Universitario en Ingeniería Química y Bioprocesos
N.A.L.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
19.02.2026 12:45
19.02.2026 12:45
Resumen
El presente estudio tiene como objetivo principal la evaluación técnico-económica de una modificación en el proceso de fabricación de sulfato de aluminio en solución. El análisis se centra en la sustitución de la materia prima reactiva principal como estrategia para mejorar el desempeño operativo, optimizar el uso de recursos y garantizar la sostenibilidad del proceso, manteniendo inalterables la calidad del producto final y el cumplimiento de todos los requisitos de seguridad industrial. A partir de la revisión del esquema convencional basado en bauxita, se identifican oportunidades de mejora asociadas a la complejidad del tratamiento de materias primas impuras y a la gestión de residuos sólidos. En este contexto, se propone y analiza en detalle la utilización de hidróxido de aluminio de alta pureza como alternativa. Para fundamentar la propuesta, este informe desarrolla una descripción detallada del proceso modificado, incluyendo los balances de masa y balances de energia para distintos escenarios de producción, la planificación operativa mediante diagramas de Gantt y una evaluación económica preliminar que contrasta los costos de materias primas, tratamiento de residuos y amortización de equipos para ambas rutas.
El presente estudio tiene como objetivo principal la evaluación técnico-económica de una modificación en el proceso de fabricación de sulfato de aluminio en solución. El análisis se centra en la sustitución de la materia prima reactiva principal como estrategia para mejorar el desempeño operativo, optimizar el uso de recursos y garantizar la sostenibilidad del proceso, manteniendo inalterables la calidad del producto final y el cumplimiento de todos los requisitos de seguridad industrial. A partir de la revisión del esquema convencional basado en bauxita, se identifican oportunidades de mejora asociadas a la complejidad del tratamiento de materias primas impuras y a la gestión de residuos sólidos. En este contexto, se propone y analiza en detalle la utilización de hidróxido de aluminio de alta pureza como alternativa. Para fundamentar la propuesta, este informe desarrolla una descripción detallada del proceso modificado, incluyendo los balances de masa y balances de energia para distintos escenarios de producción, la planificación operativa mediante diagramas de Gantt y una evaluación económica preliminar que contrasta los costos de materias primas, tratamiento de residuos y amortización de equipos para ambas rutas.
Dirección
GARRIDO FERNANDEZ, JUAN MANUEL (Tutoría)
GARRIDO FERNANDEZ, JUAN MANUEL (Tutoría)
Tribunal
MOREIRA VILAR, MARIA TERESA (Presidente/a)
RODIL RODRIGUEZ, EVA (Secretario/a)
PIÑEIRO CHOUSA, JUAN RAMON (Vocal)
MOREIRA VILAR, MARIA TERESA (Presidente/a)
RODIL RODRIGUEZ, EVA (Secretario/a)
PIÑEIRO CHOUSA, JUAN RAMON (Vocal)
Valorización de macroalgas para la recuperación de compuestos bioactivos mediante el cultivo de bacterias fototróficas púrpura (PPB)
Autoría
M.A.G.
Máster Universitario en Ingeniería Química y Bioprocesos
M.A.G.
Máster Universitario en Ingeniería Química y Bioprocesos
Fecha de la defensa
19.02.2026 11:15
19.02.2026 11:15
Resumen
Página 1 de 72 Resumen La acumulación de macroalgas en las costas de Galicia, debido a las arribazones, ha generado preocupación por los impactos económicos y ambientales que causan. El presente Trabajo Final de Máster evaluó dos procesos en paralelo, con el objetivo de valorizar este residuo natural y recuperar productos de valor añadido, como los carotenoides. Tras una molienda, el alga en una concentración de 5 gramos de DQO por litro se sometió primero a una prefermentación, empleando, por un lado, lodo de un digestor anaerobio, y por otro lado bacterias fototróficas púrpura, PPB, como biomasa y en oscuridad. El reactor con lodo anaerobio consumió el 31 por ciento de la DQO y acumuló un total de 1,38 gramos de DQO por litro de ácidos grasos volátiles, AGV, con proporción mayor de ácido acético y ácido butírico. El reactor de PPB alcanzó 1,68 gramos de DQO por litro de AGV, en el que el ácido propiónico fue el mayoritario. En paralelo, se operó un reactor de PPB con 0,5 gramos de DQO por litro de alga, bajo luz infrarroja, para evaluar su potencial transfomación directa. Este reactor presentó limitación por la hidrólisis del alga e interferencia por parte del alga, al momento de cuantificar los carotenoides, al quedar gran cantidad de alga como sólido durante todo el ensayo. Los sobrenadantes de los reactores de la prefermentación se llevaron a una segunda etapa fototrófica con PPB, donde se determinaron rendimientos entre 0,664 y 1,164 miligramos de betacaroteno por gramo de alga seca consumida. De esta manera, se demuestra la versatilidad metabólica de las PPB y se presenta una opción circular para la gestión de arribazones, aunque se necesita más investigación para optimizar los rendimientos.
Página 1 de 72 Resumen La acumulación de macroalgas en las costas de Galicia, debido a las arribazones, ha generado preocupación por los impactos económicos y ambientales que causan. El presente Trabajo Final de Máster evaluó dos procesos en paralelo, con el objetivo de valorizar este residuo natural y recuperar productos de valor añadido, como los carotenoides. Tras una molienda, el alga en una concentración de 5 gramos de DQO por litro se sometió primero a una prefermentación, empleando, por un lado, lodo de un digestor anaerobio, y por otro lado bacterias fototróficas púrpura, PPB, como biomasa y en oscuridad. El reactor con lodo anaerobio consumió el 31 por ciento de la DQO y acumuló un total de 1,38 gramos de DQO por litro de ácidos grasos volátiles, AGV, con proporción mayor de ácido acético y ácido butírico. El reactor de PPB alcanzó 1,68 gramos de DQO por litro de AGV, en el que el ácido propiónico fue el mayoritario. En paralelo, se operó un reactor de PPB con 0,5 gramos de DQO por litro de alga, bajo luz infrarroja, para evaluar su potencial transfomación directa. Este reactor presentó limitación por la hidrólisis del alga e interferencia por parte del alga, al momento de cuantificar los carotenoides, al quedar gran cantidad de alga como sólido durante todo el ensayo. Los sobrenadantes de los reactores de la prefermentación se llevaron a una segunda etapa fototrófica con PPB, donde se determinaron rendimientos entre 0,664 y 1,164 miligramos de betacaroteno por gramo de alga seca consumida. De esta manera, se demuestra la versatilidad metabólica de las PPB y se presenta una opción circular para la gestión de arribazones, aunque se necesita más investigación para optimizar los rendimientos.
Dirección
Pedrouso Fuentes, Alba (Tutoría)
MOSQUERA CORRAL, ANUSKA Cotutoría
Pedrouso Fuentes, Alba (Tutoría)
MOSQUERA CORRAL, ANUSKA Cotutoría
Tribunal
MOREIRA VILAR, MARIA TERESA (Presidente/a)
RODIL RODRIGUEZ, EVA (Secretario/a)
PIÑEIRO CHOUSA, JUAN RAMON (Vocal)
MOREIRA VILAR, MARIA TERESA (Presidente/a)
RODIL RODRIGUEZ, EVA (Secretario/a)
PIÑEIRO CHOUSA, JUAN RAMON (Vocal)
Condicionamiento explícito de thing/stuff para una segmentación panóptica de vocabulario abierto robusta
Autoría
A.B.R.
Máster Universitario en Inteligencia Artificial
A.B.R.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
03.02.2026 13:30
03.02.2026 13:30
Resumen
La segmentación panóptica de vocabulario abierto busca segmentar y clasificar categorías arbitrarias en inferencia usando priors lingüísticos, pero los métodos actuales todavía tienen dificultades ante cambio de vocabulario, especialmente cuando la distinción thing/stuff es ambigua: las categorías no vistas pueden tratarse incorrectamente como stuff en vez de thing, haciendo que las máscaras de instancia se fusionen erróneamente, perjudicando la calidad panóptica. Proponemos TS-CLIP, un modelo ligero que hace explícito el comportamiento deseado al condicionar los embeddings de texto de CLIP con el tipo panóptico deseado (thing/stuff) y con el contexto global de la imagen, y al añadir query-to-text attention para que la semántica de las categorías puedan influir en la formación de máscaras. Una aumento de datos de fusión/división de máscaras durante el entrenamiento evita además que el modelo memorice convenciones de agrupamiento específicas del dataset y permite una convergencia de entrenamiento más rápida. Con ajustes adicionales en el decodificador, TS-CLIP mejora a FC-CLIP en el dataset ADE20K (PQ de 26.8 a 27.6), especialmente en thing (PQ de 25.1 a 26.5) y en categorías no vistas (PQ de 18.0 a 19.1), a la vez que requiere menos iteraciones de entrenamiento.
La segmentación panóptica de vocabulario abierto busca segmentar y clasificar categorías arbitrarias en inferencia usando priors lingüísticos, pero los métodos actuales todavía tienen dificultades ante cambio de vocabulario, especialmente cuando la distinción thing/stuff es ambigua: las categorías no vistas pueden tratarse incorrectamente como stuff en vez de thing, haciendo que las máscaras de instancia se fusionen erróneamente, perjudicando la calidad panóptica. Proponemos TS-CLIP, un modelo ligero que hace explícito el comportamiento deseado al condicionar los embeddings de texto de CLIP con el tipo panóptico deseado (thing/stuff) y con el contexto global de la imagen, y al añadir query-to-text attention para que la semántica de las categorías puedan influir en la formación de máscaras. Una aumento de datos de fusión/división de máscaras durante el entrenamiento evita además que el modelo memorice convenciones de agrupamiento específicas del dataset y permite una convergencia de entrenamiento más rápida. Con ajustes adicionales en el decodificador, TS-CLIP mejora a FC-CLIP en el dataset ADE20K (PQ de 26.8 a 27.6), especialmente en thing (PQ de 25.1 a 26.5) y en categorías no vistas (PQ de 18.0 a 19.1), a la vez que requiere menos iteraciones de entrenamiento.
Dirección
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
CORES COSTA, DANIEL Cotutoría
MUCIENTES MOLINA, MANUEL FELIPE (Tutoría)
CORES COSTA, DANIEL Cotutoría
Tribunal
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
VALLADARES RODRIGUEZ, SONIA MARIA (Secretario/a)
PICHEL CAMPOS, JOSE RAMON (Vocal)
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
VALLADARES RODRIGUEZ, SONIA MARIA (Secretario/a)
PICHEL CAMPOS, JOSE RAMON (Vocal)
Disolventes eutécticos basados en ácidos grasos para la mejora del proceso de obtención de gelatina a partir de piel de pescado.
Autoría
M.D.A.
Máster Universitario en Ingeniería Química y Bioprocesos (2ª ed)
M.D.A.
Máster Universitario en Ingeniería Química y Bioprocesos (2ª ed)
Fecha de la defensa
19.02.2026 11:45
19.02.2026 11:45
Resumen
La industria de transformación de productos pesqueros, de gran relevancia en el tejido económico gallego, genera volúmenes significativos de residuos que, pese a su escasa explotación actual, poseen un alto potencial de valorización. Entre ellos, destaca la piel de pescado por su elevado contenido en colágeno, que puede dar lugar, en su versión desnaturalizada, a la producción de gelatina, con múltiples aplicaciones en diversos sectores. Los procesos convencionales de extracción de gelatina emplean pretratamientos con ácidos y bases fuertes, con condiciones agresivas (altas concentraciones o tiempos prolongados), lo que, además de comprometer las credenciales de sostenibilidad del proceso, induce una hidrólisis descontrolada que merma sustancialmente la calidad del producto final. Además, estas metodologías requieren etapas intensivas de neutralización y conllevan riesgos ambientales asociados a la gestión y al vertido de los efluentes corrosivos generados. En este contexto, resulta de interés investigar métodos alternativos más sostenibles. Recientemente, se ha propuesto la obtención de gelatina a partir de la piel de pescado mediante extracción con agua templada tras una etapa de pretratamiento por maceración con disolventes eutécticos. En esta línea, este trabajo investiga la aplicación de disolventes eutécticos basados en sales de amonio cuaternario y ácidos grasos para dicho fin. En primera instancia, se analizó el equilibrio sólido-líquido de ocho sistemas binarios constituidos por una sal de amonio (cloruro de tetraetilamonio o cloruro de tetrapropilamonio) y un ácido graso saturado (octanoico, decanoico, dodecanoico u octadecanoico) mediante calorimetría diferencial de barrido. A partir de este cribado y determinado el comportamiento eutéctico de los citados sistemas, se seleccionaron los dos disolventes eutécticos conteniendo ácido octanoico al poseer las temperaturas eutécticas más bajas (inferior a 0 celsius). A continuación, se evaluó el proceso de extracción, considerando la presencia o ausencia de una etapa de lavado intermedia con agua fría entre el pretratamiento con el disolvente eutéctico y la extracción final con agua. Las gelatinas obtenidas se caracterizaron mediante análisis de estabilidad térmica, distribución de pesos moleculares y comportamiento reológico. Los resultados indicaron rendimientos de extracción del 6-10%, así como propiedades que sugieren la obtención de un producto de alta calidad: temperaturas de gelificación y fusión en los rangos 24-27 Celsius y 27-29 Celsius respectivamente temperaturas de descomposición superiores a 225 Celsius; y clara predominancia de fracciones de alto peso molecular. Entre las opciones evaluadas, los resultados más prometedores se obtuvieron con el disolvente formado por cloruro de tetrapropilamonio y ácido octanoico para la maceración, empleando un lavado intermedio. En conclusión, este trabajo demuestra la viabilidad técnica de emplear disolventes eutécticos basados en cloruros de amonio cuaternario y ácidos grasos para obtener gelatina de piel de pescado de alta calidad y con buenas perspectivas de aplicación.
La industria de transformación de productos pesqueros, de gran relevancia en el tejido económico gallego, genera volúmenes significativos de residuos que, pese a su escasa explotación actual, poseen un alto potencial de valorización. Entre ellos, destaca la piel de pescado por su elevado contenido en colágeno, que puede dar lugar, en su versión desnaturalizada, a la producción de gelatina, con múltiples aplicaciones en diversos sectores. Los procesos convencionales de extracción de gelatina emplean pretratamientos con ácidos y bases fuertes, con condiciones agresivas (altas concentraciones o tiempos prolongados), lo que, además de comprometer las credenciales de sostenibilidad del proceso, induce una hidrólisis descontrolada que merma sustancialmente la calidad del producto final. Además, estas metodologías requieren etapas intensivas de neutralización y conllevan riesgos ambientales asociados a la gestión y al vertido de los efluentes corrosivos generados. En este contexto, resulta de interés investigar métodos alternativos más sostenibles. Recientemente, se ha propuesto la obtención de gelatina a partir de la piel de pescado mediante extracción con agua templada tras una etapa de pretratamiento por maceración con disolventes eutécticos. En esta línea, este trabajo investiga la aplicación de disolventes eutécticos basados en sales de amonio cuaternario y ácidos grasos para dicho fin. En primera instancia, se analizó el equilibrio sólido-líquido de ocho sistemas binarios constituidos por una sal de amonio (cloruro de tetraetilamonio o cloruro de tetrapropilamonio) y un ácido graso saturado (octanoico, decanoico, dodecanoico u octadecanoico) mediante calorimetría diferencial de barrido. A partir de este cribado y determinado el comportamiento eutéctico de los citados sistemas, se seleccionaron los dos disolventes eutécticos conteniendo ácido octanoico al poseer las temperaturas eutécticas más bajas (inferior a 0 celsius). A continuación, se evaluó el proceso de extracción, considerando la presencia o ausencia de una etapa de lavado intermedia con agua fría entre el pretratamiento con el disolvente eutéctico y la extracción final con agua. Las gelatinas obtenidas se caracterizaron mediante análisis de estabilidad térmica, distribución de pesos moleculares y comportamiento reológico. Los resultados indicaron rendimientos de extracción del 6-10%, así como propiedades que sugieren la obtención de un producto de alta calidad: temperaturas de gelificación y fusión en los rangos 24-27 Celsius y 27-29 Celsius respectivamente temperaturas de descomposición superiores a 225 Celsius; y clara predominancia de fracciones de alto peso molecular. Entre las opciones evaluadas, los resultados más prometedores se obtuvieron con el disolvente formado por cloruro de tetrapropilamonio y ácido octanoico para la maceración, empleando un lavado intermedio. En conclusión, este trabajo demuestra la viabilidad técnica de emplear disolventes eutécticos basados en cloruros de amonio cuaternario y ácidos grasos para obtener gelatina de piel de pescado de alta calidad y con buenas perspectivas de aplicación.
Dirección
RODRIGUEZ MARTINEZ, HECTOR (Tutoría)
MENDES VILAS BOAS, SERGIO ANTONIO Cotutoría
RODRIGUEZ MARTINEZ, HECTOR (Tutoría)
MENDES VILAS BOAS, SERGIO ANTONIO Cotutoría
Tribunal
MOREIRA VILAR, MARIA TERESA (Presidente/a)
RODIL RODRIGUEZ, EVA (Secretario/a)
PIÑEIRO CHOUSA, JUAN RAMON (Vocal)
MOREIRA VILAR, MARIA TERESA (Presidente/a)
RODIL RODRIGUEZ, EVA (Secretario/a)
PIÑEIRO CHOUSA, JUAN RAMON (Vocal)
Diseño y evaluación comparativa de nodos de salvaguarda avanzados para IA conversacional
Autoría
A.E.C.
Máster Universitario en Inteligencia Artificial
A.E.C.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
18.02.2026 16:30
18.02.2026 16:30
Resumen
Este trabajo presenta el diseño y la evaluación de un 'Nodo de Salvaguarda' (Safeguard Node) eficiente para proteger sistemas de Inteligencia Artificial (IA) conversacional en entornos de producción. El autor propone una arquitectura unificada de múltiples cabezales (Multi-Head) basada en codificadores de Representaciones de Codificador Bidireccional de Transformadores (BERT), con variantes de aproximadamente 4, 40 y 110 millones de parámetros, que predice simultáneamente la categoría semántica, la intención del usuario y el nivel de riesgo. El estudio aborda el problema de los altos costes computacionales y la latencia de los modelos de seguridad actuales, como Llama Guard. Para ello, se desarrolló un conjunto de datos trilingüe (inglés, español y gallego) que cubre nueve categorías semánticas, dos clases de intención y dos de riesgo. Los resultados demuestran que estos modelos especializados de menor escala pueden igualar o superar el rendimiento de Modelos de Lenguaje de Gran Tamaño (LLM) mucho más complejos (de 4.000 o 7.000 millones de parámetros) en tareas específicas de moderación, reduciendo drásticamente la latencia, los requisitos de hardware y los costes derivados de Interfaces de Programación de Aplicaciones (API) externas.
Este trabajo presenta el diseño y la evaluación de un 'Nodo de Salvaguarda' (Safeguard Node) eficiente para proteger sistemas de Inteligencia Artificial (IA) conversacional en entornos de producción. El autor propone una arquitectura unificada de múltiples cabezales (Multi-Head) basada en codificadores de Representaciones de Codificador Bidireccional de Transformadores (BERT), con variantes de aproximadamente 4, 40 y 110 millones de parámetros, que predice simultáneamente la categoría semántica, la intención del usuario y el nivel de riesgo. El estudio aborda el problema de los altos costes computacionales y la latencia de los modelos de seguridad actuales, como Llama Guard. Para ello, se desarrolló un conjunto de datos trilingüe (inglés, español y gallego) que cubre nueve categorías semánticas, dos clases de intención y dos de riesgo. Los resultados demuestran que estos modelos especializados de menor escala pueden igualar o superar el rendimiento de Modelos de Lenguaje de Gran Tamaño (LLM) mucho más complejos (de 4.000 o 7.000 millones de parámetros) en tareas específicas de moderación, reduciendo drásticamente la latencia, los requisitos de hardware y los costes derivados de Interfaces de Programación de Aplicaciones (API) externas.
Dirección
CATALA BOLOS, ALEJANDRO (Tutoría)
Piñeiro Martín, Andrés Cotutoría
CATALA BOLOS, ALEJANDRO (Tutoría)
Piñeiro Martín, Andrés Cotutoría
Tribunal
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
SANTOS MATEOS, ROI (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vocal)
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
SANTOS MATEOS, ROI (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vocal)
Un estudio con humano en el bucle sobre la optimización de prompts y la comparación de modelos para la clasificación de requisitos no funcionales.
Autoría
R.U.F.
Máster Universitario en Inteligencia Artificial
R.U.F.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
18.02.2026 18:00
18.02.2026 18:00
Resumen
Los requisitos no funcionales (NFRs) son factores críticos en la Ingeniería de Requisitos, ya que su descuido provoca problemas significativos. Para abordarlos adecuadamente, la clasificación automática de los NFRs en subclases es actualmente un área activa de investigación. Tradicionalmente, para esta tarea se han utilizado modelos de aprendizaje automático supervisado. Sin embargo, existe una grave escasez de datos etiquetados en idiomas distintos del inglés, lo cual es necesario para un entrenamiento efectivo. Este trabajo compara modelos transformer de tipo codificador con modelos generativos de Lenguaje de Gran Tamaño (LLMs) en una tarea de clasificación multiclase de NFRs. En concreto, se investiga si la optimización de prompts con humano en el bucle puede alcanzar resultados competitivos frente a los modelos transformer ajustados (fine-tuned). Para obtener estas conclusiones, se utiliza el conjunto de datos traducido PROMISE para entrenar el modelo y optimizar el prompt en una configuración de validación cruzada estratificada de tres pliegues, y el conjunto de datos ReSpaN para evaluar la generalización entre conjuntos de datos. El rendimiento se mide mediante la puntuación F1 macro, para manejar cuidadosamente los desbalances entre clases. Los resultados de este estudio demuestran que los LLMs generativos de tamaño razonable (7B+ parámetros) superan a los modelos transformer ajustados en este escenario con pocos datos. La optimización del prompt parece sobreajustarse a los datos de entrenamiento inicialmente, pero muestra capacidad de generalización cuando se evalúa con el conjunto de datos ReSpaN. Además, el rendimiento de los LLMs generativos de mayor tamaño se mantiene estable tanto en datos en inglés como en español. En conclusión, los LLMs generativos ofrecen una solución robusta para la clasificación de NFRs, ya que no dependen de grandes conjuntos de datos etiquetados y pueden razonar a través de barreras lingüísticas. Al reducir la dependencia de los datos, este enfoque simplifica la automatización de la Ingeniería de Requisitos en idiomas distintos del inglés.
Los requisitos no funcionales (NFRs) son factores críticos en la Ingeniería de Requisitos, ya que su descuido provoca problemas significativos. Para abordarlos adecuadamente, la clasificación automática de los NFRs en subclases es actualmente un área activa de investigación. Tradicionalmente, para esta tarea se han utilizado modelos de aprendizaje automático supervisado. Sin embargo, existe una grave escasez de datos etiquetados en idiomas distintos del inglés, lo cual es necesario para un entrenamiento efectivo. Este trabajo compara modelos transformer de tipo codificador con modelos generativos de Lenguaje de Gran Tamaño (LLMs) en una tarea de clasificación multiclase de NFRs. En concreto, se investiga si la optimización de prompts con humano en el bucle puede alcanzar resultados competitivos frente a los modelos transformer ajustados (fine-tuned). Para obtener estas conclusiones, se utiliza el conjunto de datos traducido PROMISE para entrenar el modelo y optimizar el prompt en una configuración de validación cruzada estratificada de tres pliegues, y el conjunto de datos ReSpaN para evaluar la generalización entre conjuntos de datos. El rendimiento se mide mediante la puntuación F1 macro, para manejar cuidadosamente los desbalances entre clases. Los resultados de este estudio demuestran que los LLMs generativos de tamaño razonable (7B+ parámetros) superan a los modelos transformer ajustados en este escenario con pocos datos. La optimización del prompt parece sobreajustarse a los datos de entrenamiento inicialmente, pero muestra capacidad de generalización cuando se evalúa con el conjunto de datos ReSpaN. Además, el rendimiento de los LLMs generativos de mayor tamaño se mantiene estable tanto en datos en inglés como en español. En conclusión, los LLMs generativos ofrecen una solución robusta para la clasificación de NFRs, ya que no dependen de grandes conjuntos de datos etiquetados y pueden razonar a través de barreras lingüísticas. Al reducir la dependencia de los datos, este enfoque simplifica la automatización de la Ingeniería de Requisitos en idiomas distintos del inglés.
Dirección
CONDORI FERNANDEZ, OLINDA NELLY (Tutoría)
CATALA BOLOS, ALEJANDRO Cotutoría
CONDORI FERNANDEZ, OLINDA NELLY (Tutoría)
CATALA BOLOS, ALEJANDRO Cotutoría
Tribunal
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
SANTOS MATEOS, ROI (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vocal)
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
SANTOS MATEOS, ROI (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vocal)
Anclaje de nanopartículas catalíticas en fibras de fluoruro de polivinilideno con un material de cambio de fase encapsulado para termorregulación
Autoría
A.F.M.
Máster Universitario en Ingeniería Química y Bioprocesos (2ª ed)
A.F.M.
Máster Universitario en Ingeniería Química y Bioprocesos (2ª ed)
Fecha de la defensa
19.02.2026 12:15
19.02.2026 12:15
Resumen
Este Trabajo Fin de Máster presenta una prueba de concepto de la integración de fibras poliméricas basadas en PVDF con materiales de cambio de fase (PCM) encapsulados y nanopartículas catalíticas, con el objetivo de desarrollar un sistema catalítico térmicamente autorregulable. Las fibras se fabricaron mediante un proceso coaxial microfluídico de inversión de fases inducida por no disolvente (NIPS), permitiendo la encapsulación controlada de parafina RT25HC con distintos contenidos de PCM. La funcionalización superficial se llevó a cabo mediante spray coating de nanopartículas de óxido de hierro (Fe3O4), seleccionadas tras un estudio preliminar de estabilidad coloidal, evaluándose su adhesión, estabilidad y compatibilidad con el comportamiento térmico de las fibras.
Este Trabajo Fin de Máster presenta una prueba de concepto de la integración de fibras poliméricas basadas en PVDF con materiales de cambio de fase (PCM) encapsulados y nanopartículas catalíticas, con el objetivo de desarrollar un sistema catalítico térmicamente autorregulable. Las fibras se fabricaron mediante un proceso coaxial microfluídico de inversión de fases inducida por no disolvente (NIPS), permitiendo la encapsulación controlada de parafina RT25HC con distintos contenidos de PCM. La funcionalización superficial se llevó a cabo mediante spray coating de nanopartículas de óxido de hierro (Fe3O4), seleccionadas tras un estudio preliminar de estabilidad coloidal, evaluándose su adhesión, estabilidad y compatibilidad con el comportamiento térmico de las fibras.
Dirección
RODRIGUEZ MARTINEZ, HECTOR (Tutoría)
Durán López, Mikel Cotutoría
RODRIGUEZ MARTINEZ, HECTOR (Tutoría)
Durán López, Mikel Cotutoría
Tribunal
MOREIRA VILAR, MARIA TERESA (Presidente/a)
RODIL RODRIGUEZ, EVA (Secretario/a)
PIÑEIRO CHOUSA, JUAN RAMON (Vocal)
MOREIRA VILAR, MARIA TERESA (Presidente/a)
RODIL RODRIGUEZ, EVA (Secretario/a)
PIÑEIRO CHOUSA, JUAN RAMON (Vocal)
Un sistema multimodal de reconocimiento de emociones en tiempo real y multilingüe a partir del habla
Autoría
S.A.F.V.
Máster Universitario en Inteligencia Artificial
S.A.F.V.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
03.02.2026 14:00
03.02.2026 14:00
Resumen
El reconocimiento de emociones en el habla en tiempo real (SER) en entornos multilingües sigue siendo un reto importante debido a la brecha semántica entre las señales acústicas y lingüísticas y el coste computacional de los modelos modernos de aprendizaje profundo. Este artículo presenta un sistema SER multimodal y multilingüe diseñado para equilibrar el rendimiento predictivo con la eficiencia ambiental en escenarios en tiempo real. Proponemos una arquitectura híbrida que integra características acústicas (MFCC) e incrustaciones semánticas (DistilUse) a través de diversas estrategias de fusión, que van desde la concatenación hasta los mecanismos de atención cruzada. Para abordar la dimensión ambiental de la IA ética, integramos una capa de supervisión de IA verde utilizando CodeCarbon para cuantificar el consumo de energía durante el entrenamiento y la inferencia. La validación experimental se llevó a cabo en el conjunto de datos multilingüe EmoFilm (inglés, español, italiano). Los resultados indican que un enfoque de fusión tardía (alfa igual a 0,5) supera a las complejas arquitecturas de fusión intermedia, alcanzando una precisión del 70,19 por ciento, probablemente debido al tamaño limitado del conjunto de datos. Además, un análisis multilingüe revela un posible efecto de doblaje (es decir, un mejor rendimiento del reconocimiento en audio doblado profesionalmente, donde la prosodia exagerada puede amplificar las señales emocionales), en el que el modelo funciona significativamente mejor en audio doblado (español, 77,3 por ciento) en comparación con las pistas originales (inglés, 65,0 por ciento), debido a la prosodia acentuada en la actuación de voz. Los experimentos en tiempo real demuestran que la arquitectura asíncrona de doble velocidad propuesta funciona bien por debajo de las restricciones en tiempo real (RTF menor que 1), manteniendo un rendimiento de reconocimiento significativo en condiciones de streaming. El análisis de la huella de carbono destaca que las representaciones acústicas ligeras combinadas con el procesamiento semántico proporcionan un equilibrio favorable entre precisión y eficiencia. En general, los resultados indican que un SER multimodal eficaz en entornos multilingües en tiempo real no requiere modelos complejos, sino arquitecturas de sistemas cuidadosamente diseñadas y conscientes de la eficiencia.
El reconocimiento de emociones en el habla en tiempo real (SER) en entornos multilingües sigue siendo un reto importante debido a la brecha semántica entre las señales acústicas y lingüísticas y el coste computacional de los modelos modernos de aprendizaje profundo. Este artículo presenta un sistema SER multimodal y multilingüe diseñado para equilibrar el rendimiento predictivo con la eficiencia ambiental en escenarios en tiempo real. Proponemos una arquitectura híbrida que integra características acústicas (MFCC) e incrustaciones semánticas (DistilUse) a través de diversas estrategias de fusión, que van desde la concatenación hasta los mecanismos de atención cruzada. Para abordar la dimensión ambiental de la IA ética, integramos una capa de supervisión de IA verde utilizando CodeCarbon para cuantificar el consumo de energía durante el entrenamiento y la inferencia. La validación experimental se llevó a cabo en el conjunto de datos multilingüe EmoFilm (inglés, español, italiano). Los resultados indican que un enfoque de fusión tardía (alfa igual a 0,5) supera a las complejas arquitecturas de fusión intermedia, alcanzando una precisión del 70,19 por ciento, probablemente debido al tamaño limitado del conjunto de datos. Además, un análisis multilingüe revela un posible efecto de doblaje (es decir, un mejor rendimiento del reconocimiento en audio doblado profesionalmente, donde la prosodia exagerada puede amplificar las señales emocionales), en el que el modelo funciona significativamente mejor en audio doblado (español, 77,3 por ciento) en comparación con las pistas originales (inglés, 65,0 por ciento), debido a la prosodia acentuada en la actuación de voz. Los experimentos en tiempo real demuestran que la arquitectura asíncrona de doble velocidad propuesta funciona bien por debajo de las restricciones en tiempo real (RTF menor que 1), manteniendo un rendimiento de reconocimiento significativo en condiciones de streaming. El análisis de la huella de carbono destaca que las representaciones acústicas ligeras combinadas con el procesamiento semántico proporcionan un equilibrio favorable entre precisión y eficiencia. En general, los resultados indican que un SER multimodal eficaz en entornos multilingües en tiempo real no requiere modelos complejos, sino arquitecturas de sistemas cuidadosamente diseñadas y conscientes de la eficiencia.
Dirección
CONDORI FERNANDEZ, OLINDA NELLY (Tutoría)
CATALA BOLOS, ALEJANDRO Cotutoría
CONDORI FERNANDEZ, OLINDA NELLY (Tutoría)
CATALA BOLOS, ALEJANDRO Cotutoría
Tribunal
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
VALLADARES RODRIGUEZ, SONIA MARIA (Secretario/a)
PICHEL CAMPOS, JOSE RAMON (Vocal)
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
VALLADARES RODRIGUEZ, SONIA MARIA (Secretario/a)
PICHEL CAMPOS, JOSE RAMON (Vocal)
Sistema web interactivo para el análisis de datos médicos poblacionales
Autoría
S.G.
Máster Universitario en Visión por Computador
S.G.
Máster Universitario en Visión por Computador
Fecha de la defensa
04.02.2026 10:30
04.02.2026 10:30
Resumen
Este trabajo presenta una plataforma web para la visualización, el análisis y la segmentación de imágenes médicas y datos clínicos estructurados. El sistema integra múltiples módulos, incluyendo análisis estadístico, visualización interactiva de imágenes, gestión de imágenes y segmentación automatizada, con el objetivo de apoyar flujos de trabajo de investigación exploratoria. Los resultados experimentales confirman el correcto funcionamiento de todos los módulos y demuestran la capacidad de la plataforma para manejar datos médicos heterogéneos de forma interactiva y fácil de usar. El diseño general es modular y flexible, lo que permite que el sistema pueda ampliarse y adaptarse para futuras investigaciones y un posible uso clínico.
Este trabajo presenta una plataforma web para la visualización, el análisis y la segmentación de imágenes médicas y datos clínicos estructurados. El sistema integra múltiples módulos, incluyendo análisis estadístico, visualización interactiva de imágenes, gestión de imágenes y segmentación automatizada, con el objetivo de apoyar flujos de trabajo de investigación exploratoria. Los resultados experimentales confirman el correcto funcionamiento de todos los módulos y demuestran la capacidad de la plataforma para manejar datos médicos heterogéneos de forma interactiva y fácil de usar. El diseño general es modular y flexible, lo que permite que el sistema pueda ampliarse y adaptarse para futuras investigaciones y un posible uso clínico.
Dirección
NUÑEZ GARCIA, MARTA (Tutoría)
NUÑEZ GARCIA, MARTA (Tutoría)
Tribunal
GARCIA TAHOCES, PABLO (Presidente/a)
BREA SANCHEZ, VICTOR MANUEL (Secretario/a)
López Martínez, Paula (Vocal)
GARCIA TAHOCES, PABLO (Presidente/a)
BREA SANCHEZ, VICTOR MANUEL (Secretario/a)
López Martínez, Paula (Vocal)
Segmentación Few-Shot para Imágenes Médicas utilizando Modelos Fundacionales
Autoría
J.M.G.D.
Máster Universitario en Visión por Computador
J.M.G.D.
Máster Universitario en Visión por Computador
Fecha de la defensa
04.02.2026 10:10
04.02.2026 10:10
Resumen
La segmentación de imágenes médicas es un prerrequisito crítico para el diagnóstico y la planificación del tratamiento. Si bien los modelos de aprendizaje profundo supervisado han establecido el estado del arte en cuanto a rendimiento, sufren de una fuerte dependencia de conjuntos de datos a gran escala anotados a nivel de píxel. Esta dependencia representa un cuello de botella significativo en la imagen médica debido a la escasez de anotaciones de expertos y la heterogeneidad de las modalidades de imagen. Esta tesis propone un marco novedoso de Segmentación Few-Shot (FSS) diseñado para abordar estos desafíos utilizando Modelos Fundacionales (FMs). El método propuesto combina la robusta extracción de características del modelo autosupervisado DINOv3 con el refinamiento de límites final del Segment Anything Model 3 (SAM 3). Evaluamos este marco en cinco conjuntos de datos de imágenes médicas distintos. Los resultados experimentais demuestran que nuestro enfoque no solo generaliza mejor a clases no vistas en regímenes de pocos datos, sino que también supera a la U-Net supervisada estándar en términos de Coeficiente de Similitud de Dice (DSC) y Distancia de Hausdorff en casos específicos, marcando un paso significativo hacia adelante en el análisis de imágenes médicas eficiente en el uso de etiquetas.
La segmentación de imágenes médicas es un prerrequisito crítico para el diagnóstico y la planificación del tratamiento. Si bien los modelos de aprendizaje profundo supervisado han establecido el estado del arte en cuanto a rendimiento, sufren de una fuerte dependencia de conjuntos de datos a gran escala anotados a nivel de píxel. Esta dependencia representa un cuello de botella significativo en la imagen médica debido a la escasez de anotaciones de expertos y la heterogeneidad de las modalidades de imagen. Esta tesis propone un marco novedoso de Segmentación Few-Shot (FSS) diseñado para abordar estos desafíos utilizando Modelos Fundacionales (FMs). El método propuesto combina la robusta extracción de características del modelo autosupervisado DINOv3 con el refinamiento de límites final del Segment Anything Model 3 (SAM 3). Evaluamos este marco en cinco conjuntos de datos de imágenes médicas distintos. Los resultados experimentais demuestran que nuestro enfoque no solo generaliza mejor a clases no vistas en regímenes de pocos datos, sino que también supera a la U-Net supervisada estándar en términos de Coeficiente de Similitud de Dice (DSC) y Distancia de Hausdorff en casos específicos, marcando un paso significativo hacia adelante en el análisis de imágenes médicas eficiente en el uso de etiquetas.
Dirección
VILA BLANCO, NICOLAS (Tutoría)
CORES COSTA, DANIEL Cotutoría
VILA BLANCO, NICOLAS (Tutoría)
CORES COSTA, DANIEL Cotutoría
Tribunal
GARCIA TAHOCES, PABLO (Presidente/a)
BREA SANCHEZ, VICTOR MANUEL (Secretario/a)
López Martínez, Paula (Vocal)
GARCIA TAHOCES, PABLO (Presidente/a)
BREA SANCHEZ, VICTOR MANUEL (Secretario/a)
López Martínez, Paula (Vocal)
Adaptación de la StyleGAN3 para el procesamiento de imágenes de teledetección multidimensionales
Autoría
A.G.L.
Máster Universitario en Inteligencia Artificial
A.G.L.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
18.02.2026 17:00
18.02.2026 17:00
Resumen
En la clasificación de imágenes de teledetección de alta resolución mediante aprendizaje profundo, es frecuente enfrentarse a desafíos derivados de la escasez de datos y de un fuerte desequilibrio entre clases. Para abordar estas limitaciones, este trabajo propone una adaptación unificada de la arquitectura StyleGAN3 diseñada para la síntesis y clasificación de imágenes multiespectrales. El método integra un módulo de clasificación denso en el discriminador, dotándolo de una doble funcionalidad, e implementa una estrategia de entrenamiento adversario equilibrada en la que se condiciona al generador para producir muestras siguiendo una distribución uniforme de clases. La evaluación del sistema se lleva a cabo mediante una metodología específica para este dominio que analiza el FID, la Precisión y la Recuperación (Recall) empleando un modelo evaluador multiespectral hecho a medida. Los resultados experimentales sobre ocho conjuntos de datos de cuencas fluviales demuestran que el método propuesto alcanza una Exactitud Media (AA) del 90,4%, superando notablemente a las referencias habituales (ResNet, ViT) y a otros sistemas previos basados en GAN (ResBaGAN, EffBaGAN) en escenarios con escasez de datos.
En la clasificación de imágenes de teledetección de alta resolución mediante aprendizaje profundo, es frecuente enfrentarse a desafíos derivados de la escasez de datos y de un fuerte desequilibrio entre clases. Para abordar estas limitaciones, este trabajo propone una adaptación unificada de la arquitectura StyleGAN3 diseñada para la síntesis y clasificación de imágenes multiespectrales. El método integra un módulo de clasificación denso en el discriminador, dotándolo de una doble funcionalidad, e implementa una estrategia de entrenamiento adversario equilibrada en la que se condiciona al generador para producir muestras siguiendo una distribución uniforme de clases. La evaluación del sistema se lleva a cabo mediante una metodología específica para este dominio que analiza el FID, la Precisión y la Recuperación (Recall) empleando un modelo evaluador multiespectral hecho a medida. Los resultados experimentales sobre ocho conjuntos de datos de cuencas fluviales demuestran que el método propuesto alcanza una Exactitud Media (AA) del 90,4%, superando notablemente a las referencias habituales (ResNet, ViT) y a otros sistemas previos basados en GAN (ResBaGAN, EffBaGAN) en escenarios con escasez de datos.
Dirección
Argüello Pedreira, Francisco Santiago (Tutoría)
Blanco Heras, Dora Cotutoría
Argüello Pedreira, Francisco Santiago (Tutoría)
Blanco Heras, Dora Cotutoría
Tribunal
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
SANTOS MATEOS, ROI (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vocal)
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
SANTOS MATEOS, ROI (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vocal)
Diseño e implementación de un módulo de agregación de alertas en entornos de ciberseguridad utilizando aprendizaje automático
Autoría
R.G.B.
Máster Universitario en Inteligencia Artificial
R.G.B.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
18.02.2026 10:00
18.02.2026 10:00
Resumen
Los Centros de Operaciones de Seguridad (SOCs) se enfrentan a una creciente fatiga por alertas debido al alto volumen de alertas generadas por los sistemas de seguridad modernos y a la prevalencia de falsos positivos, lo que impacta negativamente en la eficiencia de los analistas y en la respuesta a incidentes. Esta Tesis de Máster aborda este desafío mediante la propuesta y evaluación de un módulo genérico y configurable de agregación de alertas desarrollado en el marco del proyecto SafeNet UEBA, con el objetivo de reducir el volumen de alertas preservando su estructura e interpretabilidad. El módulo integra múltiples estrategias de agregación, incluyendo Mapas Autoorganizados (SOM) y clustering HDBSCAN, combinados opcionalmente con UMAP para la reducción de dimensionalidad y la visualización. Soporta tanto modos de agregación simples como híbridos y sigue el paradigma de Arquitectura Limpia, garantizando modularidad, extensibilidad y aplicabilidad más allá del contexto de SafeNet UEBA. Los resultados experimentales sobre diversos conjuntos de datos de ciberseguridad muestran que el enfoque propuesto logra altas tasas de reducción de alertas manteniendo una sólida calidad de agrupación. Además del rendimiento cuantitativo, el sistema proporciona salidas orientadas a los analistas, como visualizaciones, resúmenes de explicabilidad y métricas, apoyando la obtención de información accionable en entornos SOC donde no se dispone de datos etiquetados.
Los Centros de Operaciones de Seguridad (SOCs) se enfrentan a una creciente fatiga por alertas debido al alto volumen de alertas generadas por los sistemas de seguridad modernos y a la prevalencia de falsos positivos, lo que impacta negativamente en la eficiencia de los analistas y en la respuesta a incidentes. Esta Tesis de Máster aborda este desafío mediante la propuesta y evaluación de un módulo genérico y configurable de agregación de alertas desarrollado en el marco del proyecto SafeNet UEBA, con el objetivo de reducir el volumen de alertas preservando su estructura e interpretabilidad. El módulo integra múltiples estrategias de agregación, incluyendo Mapas Autoorganizados (SOM) y clustering HDBSCAN, combinados opcionalmente con UMAP para la reducción de dimensionalidad y la visualización. Soporta tanto modos de agregación simples como híbridos y sigue el paradigma de Arquitectura Limpia, garantizando modularidad, extensibilidad y aplicabilidad más allá del contexto de SafeNet UEBA. Los resultados experimentales sobre diversos conjuntos de datos de ciberseguridad muestran que el enfoque propuesto logra altas tasas de reducción de alertas manteniendo una sólida calidad de agrupación. Además del rendimiento cuantitativo, el sistema proporciona salidas orientadas a los analistas, como visualizaciones, resúmenes de explicabilidad y métricas, apoyando la obtención de información accionable en entornos SOC donde no se dispone de datos etiquetados.
Dirección
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
Piñón Blanco, Camilo Cotutoría
CARIÑENA AMIGO, MARIA PURIFICACION (Tutoría)
Piñón Blanco, Camilo Cotutoría
Tribunal
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
VIDAL AGUIAR, JUAN CARLOS (Secretario/a)
Cotos Yáñez, José Manuel (Vocal)
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
VIDAL AGUIAR, JUAN CARLOS (Secretario/a)
Cotos Yáñez, José Manuel (Vocal)
Flujo de trabajo automatizado para la exploración de predictores de fibrilación auricular basados en TC
Autoría
M.I.Z.
Máster Universitario en Inteligencia Artificial
M.I.Z.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
19.02.2026 11:15
19.02.2026 11:15
Resumen
La fibrilación auricular (FA) es la arritmia cardíaca más prevalente, sin embargo, su detección temprana sigue siendo un desafío clínico significativo debido a su naturaleza frecuentemente asintomática. Una vez diagnosticada, la ablación con catéter se considera un tratamiento fundamental. Sin embargo, las tasas de recurrencia siguen siendo altas, debido a una remodelación compleja y específica del paciente que dificulta enormemente su predicción. Si bien existen diversos marcadores pronósticos, el consenso clínico se limita en gran medida al volumen auricular izquierdo global. Además, la extracción de marcadores avanzados de la tomografía computarizada (TC) de alta resolución requiere mucho trabajo y es propensa a la variabilidad interobservador. Este trabajo aborda estas limitaciones al proponer un proceso computacional integral y totalmente automatizado para cuantificar los marcadores anatómicos que, según la literatura, son los más significativos para caracterizar el sustrato de la FA a partir de tomografías computarizadas. Empleamos un marco de aprendizaje profundo autoconfigurable, entrenado en el conjunto de datos público ImageCAS, para segmentar la aurícula derecha (AD), la aurícula izquierda (AI), la orejuela auricular izquierda (OAI) y las venas pulmonares (VP). Un módulo de posprocesamiento geométrico automatiza la extracción de un panel predictor, volumetría global (volúmenes de AI, AD y OAI), estimación de forma (esfericidad de AI), índices de remodelación regional (volumen posterior de AI, relación de volumen posteroanterior (RPVA)) y topología de VP (perímetros ostiales individuales y distancias interostiales). El proceso se probó en una cohorte local de 30 pacientes con FA del Hospital Clínico Universitario de Santiago (CHUS), obteniendo una puntuación Dice de media móvil exponencial de segmentación de 0,9592 en el conjunto de validación de ImageCAS. El análisis automatizado capturó perfiles de remodelación avanzados, incluyendo un volumen medio de AI de 117,29 mL, un volumen medio de AD de 139,31 mL y un volumen medio de OAI de 10,49 mL. El análisis de forma identificó una mediana de LASP del 85,08 porciento, una mediana de volumen posterior de la aurícula izquierda de 36,31 ml y una mediana de PAVR del 38,81 porciento, e identificó variantes anatómicas como troncos comunes izquierdos en el 33 porciento de los casos. Este marco simplifica la transición entre los datos de imagen brutos y la estratificación cuantitativa de los pacientes, ofreciendo una solución escalable que puede extenderse a cohortes mucho más grandes para aplicar métodos de análisis estadístico más avanzados.
La fibrilación auricular (FA) es la arritmia cardíaca más prevalente, sin embargo, su detección temprana sigue siendo un desafío clínico significativo debido a su naturaleza frecuentemente asintomática. Una vez diagnosticada, la ablación con catéter se considera un tratamiento fundamental. Sin embargo, las tasas de recurrencia siguen siendo altas, debido a una remodelación compleja y específica del paciente que dificulta enormemente su predicción. Si bien existen diversos marcadores pronósticos, el consenso clínico se limita en gran medida al volumen auricular izquierdo global. Además, la extracción de marcadores avanzados de la tomografía computarizada (TC) de alta resolución requiere mucho trabajo y es propensa a la variabilidad interobservador. Este trabajo aborda estas limitaciones al proponer un proceso computacional integral y totalmente automatizado para cuantificar los marcadores anatómicos que, según la literatura, son los más significativos para caracterizar el sustrato de la FA a partir de tomografías computarizadas. Empleamos un marco de aprendizaje profundo autoconfigurable, entrenado en el conjunto de datos público ImageCAS, para segmentar la aurícula derecha (AD), la aurícula izquierda (AI), la orejuela auricular izquierda (OAI) y las venas pulmonares (VP). Un módulo de posprocesamiento geométrico automatiza la extracción de un panel predictor, volumetría global (volúmenes de AI, AD y OAI), estimación de forma (esfericidad de AI), índices de remodelación regional (volumen posterior de AI, relación de volumen posteroanterior (RPVA)) y topología de VP (perímetros ostiales individuales y distancias interostiales). El proceso se probó en una cohorte local de 30 pacientes con FA del Hospital Clínico Universitario de Santiago (CHUS), obteniendo una puntuación Dice de media móvil exponencial de segmentación de 0,9592 en el conjunto de validación de ImageCAS. El análisis automatizado capturó perfiles de remodelación avanzados, incluyendo un volumen medio de AI de 117,29 mL, un volumen medio de AD de 139,31 mL y un volumen medio de OAI de 10,49 mL. El análisis de forma identificó una mediana de LASP del 85,08 porciento, una mediana de volumen posterior de la aurícula izquierda de 36,31 ml y una mediana de PAVR del 38,81 porciento, e identificó variantes anatómicas como troncos comunes izquierdos en el 33 porciento de los casos. Este marco simplifica la transición entre los datos de imagen brutos y la estratificación cuantitativa de los pacientes, ofreciendo una solución escalable que puede extenderse a cohortes mucho más grandes para aplicar métodos de análisis estadístico más avanzados.
Dirección
NUÑEZ GARCIA, MARTA (Tutoría)
Rodríguez Mañero, Moises Cotutoría
NUÑEZ GARCIA, MARTA (Tutoría)
Rodríguez Mañero, Moises Cotutoría
Tribunal
GARCIA TAHOCES, PABLO (Presidente/a)
LAMA PENIN, MANUEL (Secretario/a)
VILA BLANCO, NICOLAS (Vocal)
GARCIA TAHOCES, PABLO (Presidente/a)
LAMA PENIN, MANUEL (Secretario/a)
VILA BLANCO, NICOLAS (Vocal)
Un análisis comparativo de las estrategias de integración de LLM y grafos de conocimiento en el ámbito médico
Autoría
A.L.C.
Máster Universitario en Inteligencia Artificial
A.L.C.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
18.02.2026 10:30
18.02.2026 10:30
Resumen
Los Modelos de Lenguaje Grande (LLM) han demostrado capacidades notables en la comprensión del lenguaje natural; sin embargo, su aplicación en dominios de alto riesgo como la medicina clínica se ve obstaculizada por alucinaciones y una falta de conocimiento actualizado específico del dominio. Los Grafos de Conocimiento (KG) ofrecen hechos estructurados y verificables que potencialmente pueden fundamentar estos modelos; sin embargo, la arquitectura óptima para esta integración sigue siendo una pregunta de investigación abierta. Este trabajo presenta un análisis comparativo exhaustivo de tres estrategias de integración distintas: (1) Generación Aumentada por Recuperación (RAG) que evalúa tanto la búsqueda léxica como la semántica, (2) Ajuste Fino Eficiente en Parámetros (LoRA) en definiciones de ontologías, y (3) Un novedoso Marco de Razonamiento Multietapa. Centrados específicamente en el dominio cardiovascular, estos enfoques se evaluaron utilizando la Ontología de Enfermedades Cardiovasculares (CVDO) y un subconjunto específicamente curado del conjunto de datos MedMCQA, filtrado por Reconocimiento de Entidades Nombradas (GLiNER) para garantizar la relevancia del dominio con el contexto de la ontología. Los resultados indicaron resultados mixtos según la capacidad del modelo. La estrategia propuesta de CoT con Recuperación Aumentada (RA-CoT) alcanzó una precisión máxima global (93,23%) en un modelo de vanguardia. Esto sugiere que es fundamental permitir que los modelos utilicen pasos de razonamiento intermedios y que la combinación del razonamiento multietapa con una base de conocimiento externo puede ofrecer el mejor rendimiento en nuestro entorno para preguntas complejas de opción múltiple, propias de exámenes clínicos.
Los Modelos de Lenguaje Grande (LLM) han demostrado capacidades notables en la comprensión del lenguaje natural; sin embargo, su aplicación en dominios de alto riesgo como la medicina clínica se ve obstaculizada por alucinaciones y una falta de conocimiento actualizado específico del dominio. Los Grafos de Conocimiento (KG) ofrecen hechos estructurados y verificables que potencialmente pueden fundamentar estos modelos; sin embargo, la arquitectura óptima para esta integración sigue siendo una pregunta de investigación abierta. Este trabajo presenta un análisis comparativo exhaustivo de tres estrategias de integración distintas: (1) Generación Aumentada por Recuperación (RAG) que evalúa tanto la búsqueda léxica como la semántica, (2) Ajuste Fino Eficiente en Parámetros (LoRA) en definiciones de ontologías, y (3) Un novedoso Marco de Razonamiento Multietapa. Centrados específicamente en el dominio cardiovascular, estos enfoques se evaluaron utilizando la Ontología de Enfermedades Cardiovasculares (CVDO) y un subconjunto específicamente curado del conjunto de datos MedMCQA, filtrado por Reconocimiento de Entidades Nombradas (GLiNER) para garantizar la relevancia del dominio con el contexto de la ontología. Los resultados indicaron resultados mixtos según la capacidad del modelo. La estrategia propuesta de CoT con Recuperación Aumentada (RA-CoT) alcanzó una precisión máxima global (93,23%) en un modelo de vanguardia. Esto sugiere que es fundamental permitir que los modelos utilicen pasos de razonamiento intermedios y que la combinación del razonamiento multietapa con una base de conocimiento externo puede ofrecer el mejor rendimiento en nuestro entorno para preguntas complejas de opción múltiple, propias de exámenes clínicos.
Dirección
CHAVES FRAGA, DAVID (Tutoría)
BUGARIN DIZ, ALBERTO JOSE Cotutoría
LAMA PENIN, MANUEL Cotutoría
CHAVES FRAGA, DAVID (Tutoría)
BUGARIN DIZ, ALBERTO JOSE Cotutoría
LAMA PENIN, MANUEL Cotutoría
Tribunal
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
VIDAL AGUIAR, JUAN CARLOS (Secretario/a)
Cotos Yáñez, José Manuel (Vocal)
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
VIDAL AGUIAR, JUAN CARLOS (Secretario/a)
Cotos Yáñez, José Manuel (Vocal)
hEArT: Un marco basado en aprendizaje profundo para la cuantificación automatizada del Tejido Adiposo Epicárdico en escáneres de TC multimodales y multiescala.
Autoría
O.N.M.J.
Máster Universitario en Inteligencia Artificial
O.N.M.J.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
19.02.2026 11:45
19.02.2026 11:45
Resumen
El Tejido Adiposo Epicárdico (TAE) es cada vez más reconocido como un factor significativo en la fisiopatología de diversas enfermedades cardiovasculares, lo que sugiere que su cuantificación precisa podría tener un alto valor clínico. Sin embargo, la dependencia actual de la segmentación manual a partir de escáneres de Tomografía Computarizada (TC) presenta desafíos en cuanto a eficiencia y reproducibilidad, lo que limita potencialmente su amplia aplicación en entornos de investigación y clínicos. Esta tesis presenta el marco hEArT (heart Epicardial Adipose Tissue), un novedoso flujo de trabajo de aprendizaje profundo totalmente automatizado, destinado a abordar las complejidades de la cuantificación del TAE en escáneres de TC multimodales y multiescala. Proponemos un enfoque arquitectónico de generalista a especialista para la segmentación del pericardio, diseñado para delinear los límites anatómicos necesarios para aislar el TAE. Este proceso implica la utilización de un modelo fundacional a gran escala para estimar el límite del pericardio y mitigar los problemas relacionados con el desplazamiento de dominio, seguido de la aplicación de un modelo corrector especializado diseñado para mejorar la precisión anatómica en el resultado final. Además, a diferencia de la segmentación convencional de TAE que utiliza umbralización de imágenes con valores fijos de Unidades Hounsfield, nuestro método estima umbrales específicos para cada imagen basados en Modelos de Mezcla Gaussiana. El análisis comparativo sugiere que este método personalizado puede ofrecer ventajas sobre el estado del arte actual. Nuestro marco fue evaluado utilizando un conjunto heterogéneo de datos clínicos del mundo real para valorar su consistencia y precisión en relación con estándares de referencia semiautomatizados. Cabe destacar que, además de ser totalmente automatizado, el sistema hEArt calculó volúmenes de TAE que mostraron correlaciones más fuertes con un panel de marcadores biológicos relacionados con la grasa que los obtenidos mediante métodos estándar. Estos hallazgos sugieren que el marco propuesto podría servir como una herramienta escalable y objetiva, facilitando potencialmente una investigación clínica más extensa sobre la relevancia biológica del TAE.
El Tejido Adiposo Epicárdico (TAE) es cada vez más reconocido como un factor significativo en la fisiopatología de diversas enfermedades cardiovasculares, lo que sugiere que su cuantificación precisa podría tener un alto valor clínico. Sin embargo, la dependencia actual de la segmentación manual a partir de escáneres de Tomografía Computarizada (TC) presenta desafíos en cuanto a eficiencia y reproducibilidad, lo que limita potencialmente su amplia aplicación en entornos de investigación y clínicos. Esta tesis presenta el marco hEArT (heart Epicardial Adipose Tissue), un novedoso flujo de trabajo de aprendizaje profundo totalmente automatizado, destinado a abordar las complejidades de la cuantificación del TAE en escáneres de TC multimodales y multiescala. Proponemos un enfoque arquitectónico de generalista a especialista para la segmentación del pericardio, diseñado para delinear los límites anatómicos necesarios para aislar el TAE. Este proceso implica la utilización de un modelo fundacional a gran escala para estimar el límite del pericardio y mitigar los problemas relacionados con el desplazamiento de dominio, seguido de la aplicación de un modelo corrector especializado diseñado para mejorar la precisión anatómica en el resultado final. Además, a diferencia de la segmentación convencional de TAE que utiliza umbralización de imágenes con valores fijos de Unidades Hounsfield, nuestro método estima umbrales específicos para cada imagen basados en Modelos de Mezcla Gaussiana. El análisis comparativo sugiere que este método personalizado puede ofrecer ventajas sobre el estado del arte actual. Nuestro marco fue evaluado utilizando un conjunto heterogéneo de datos clínicos del mundo real para valorar su consistencia y precisión en relación con estándares de referencia semiautomatizados. Cabe destacar que, además de ser totalmente automatizado, el sistema hEArt calculó volúmenes de TAE que mostraron correlaciones más fuertes con un panel de marcadores biológicos relacionados con la grasa que los obtenidos mediante métodos estándar. Estos hallazgos sugieren que el marco propuesto podría servir como una herramienta escalable y objetiva, facilitando potencialmente una investigación clínica más extensa sobre la relevancia biológica del TAE.
Dirección
NUÑEZ GARCIA, MARTA (Tutoría)
Eiras Penas, Sonia Cotutoría
NUÑEZ GARCIA, MARTA (Tutoría)
Eiras Penas, Sonia Cotutoría
Tribunal
GARCIA TAHOCES, PABLO (Presidente/a)
LAMA PENIN, MANUEL (Secretario/a)
VILA BLANCO, NICOLAS (Vocal)
GARCIA TAHOCES, PABLO (Presidente/a)
LAMA PENIN, MANUEL (Secretario/a)
VILA BLANCO, NICOLAS (Vocal)
Evaluación ambiental de la producción de biolípidos a partir de lodos de depuradora con Yarrowia lipolytica aplicando la metodología de Análisis de Ciclo de Vida en el contexto de economía circular
Autoría
M.M.F.
Máster Universitario en Ingeniería Química y Bioprocesos (2ª ed)
M.M.F.
Máster Universitario en Ingeniería Química y Bioprocesos (2ª ed)
Fecha de la defensa
19.02.2026 11:30
19.02.2026 11:30
Resumen
El análisis integrado de los impactos ambientales y económicos adquiere un papel fundamental en la definición de estrategias alineadas con los principios de la economía circular, especialmente en lo referido a la búsqueda de procesos de biorrefinería orientados a la generación de productos de base biológica que permitan reducir el uso de recursos fósiles y favorecer la transición hacia sistemas productivos más sostenibles. En este marco, el presente trabajo evalúa de forma integral la viabilidad técnica, económica y ambiental de un proceso de valorización de lodos de depuradora orientado a la obtención de biolípidos mediante el cultivo de la levadura oleaginosa Yarrowia lipolytica, enmarcado en un enfoque de biorrefinería. El proceso ha sido escalado desde datos experimentales de laboratorio a un escenario de escala industrial mediante su modelización en el software SuperPro Designer, permitiendo la simulación de las distintas operaciones unitarias y la estimación de los principales flujos de materia y energía. A partir del modelo desarrollado, se ha llevado a cabo un análisis tecno-económico preliminar basado en indicadores clásicos, como el valor actual neto y el periodo de retorno de la inversión, con el fin de evaluar la viabilidad económica del proceso bajo los supuestos considerados. De manera complementaria, se ha aplicado un Análisis de Ciclo de Vida de tipo cradle-to-gate, desarrollado conforme a las normas ISO 14040 e ISO 14044 mediante el software SimaPro, orientado a la cuantificación de los impactos ambientales asociados al proceso global, así como al producto principal y al subproducto generado, y a la identificación de los principales puntos críticos del sistema. Adicionalmente, se ha realizado un análisis de sensibilidad centrado en la evaluación de escenarios alternativos orientados a mejorar el desempeño ambiental del proceso. El estudio se completa con el cálculo de indicadores ambientales, de circularidad y de valorización de residuos, que permiten contextualizar el desempeño del biolípido y del subproducto frente a sus respectivas alternativas convencionales. Los resultados obtenidos evidencian el potencial del proceso analizado, tanto desde el punto de vista tecnoeconómico como ambiental, mostrando un comportamiento comparable al de las alternativas convencionales consideradas y situándose como una estrategia coherente con los principios de la economía circular.
El análisis integrado de los impactos ambientales y económicos adquiere un papel fundamental en la definición de estrategias alineadas con los principios de la economía circular, especialmente en lo referido a la búsqueda de procesos de biorrefinería orientados a la generación de productos de base biológica que permitan reducir el uso de recursos fósiles y favorecer la transición hacia sistemas productivos más sostenibles. En este marco, el presente trabajo evalúa de forma integral la viabilidad técnica, económica y ambiental de un proceso de valorización de lodos de depuradora orientado a la obtención de biolípidos mediante el cultivo de la levadura oleaginosa Yarrowia lipolytica, enmarcado en un enfoque de biorrefinería. El proceso ha sido escalado desde datos experimentales de laboratorio a un escenario de escala industrial mediante su modelización en el software SuperPro Designer, permitiendo la simulación de las distintas operaciones unitarias y la estimación de los principales flujos de materia y energía. A partir del modelo desarrollado, se ha llevado a cabo un análisis tecno-económico preliminar basado en indicadores clásicos, como el valor actual neto y el periodo de retorno de la inversión, con el fin de evaluar la viabilidad económica del proceso bajo los supuestos considerados. De manera complementaria, se ha aplicado un Análisis de Ciclo de Vida de tipo cradle-to-gate, desarrollado conforme a las normas ISO 14040 e ISO 14044 mediante el software SimaPro, orientado a la cuantificación de los impactos ambientales asociados al proceso global, así como al producto principal y al subproducto generado, y a la identificación de los principales puntos críticos del sistema. Adicionalmente, se ha realizado un análisis de sensibilidad centrado en la evaluación de escenarios alternativos orientados a mejorar el desempeño ambiental del proceso. El estudio se completa con el cálculo de indicadores ambientales, de circularidad y de valorización de residuos, que permiten contextualizar el desempeño del biolípido y del subproducto frente a sus respectivas alternativas convencionales. Los resultados obtenidos evidencian el potencial del proceso analizado, tanto desde el punto de vista tecnoeconómico como ambiental, mostrando un comportamiento comparable al de las alternativas convencionales consideradas y situándose como una estrategia coherente con los principios de la economía circular.
Dirección
MOREIRA VILAR, MARIA TERESA (Tutoría)
MOREIRA VILAR, MARIA TERESA (Tutoría)
Tribunal
MOSQUERA CORRAL, ANUSKA (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
MOSQUERA CORRAL, ANUSKA (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
Prediseño de un sistema de recuperación de calor de los hornos de producción de carbón vegetal y comparación con sistemas de calentamiento con biomasa o gas natural
Autoría
J.M.R.
Máster Universitario en Ingeniería Química y Bioprocesos (2ª ed)
J.M.R.
Máster Universitario en Ingeniería Química y Bioprocesos (2ª ed)
Fecha de la defensa
19.02.2026 12:00
19.02.2026 12:00
Resumen
La producción de carbón vegetal se ha convertido en una alternativa estratégica dentro del contexto actual de descarbonización y transición energética. Este recurso renovable, utilizado como reductor en la fabricación de ferroaleaciones como el ferrosilicio, ofrece ventajas ambientales frente al carbón mineral, pero su proceso de producción presenta desafíos significativos. Uno de ellos es el secado previo de la madera, etapa fundamental para garantizar un rendimiento adecuado en la pirólisis y, a su vez, una de las operaciones con mayor demanda de energía térmica dentro de la planta. Tradicionalmente, esta necesidad se cubre mediante calderas de biomasa o gas natural, soluciones fiables pero con costes operativos y un impacto ambiental relevante. Paralelamente, los hornos de pirólisis generan humos calientes con un contenido energético considerable, que en configuraciones convencionales se liberan a la atmósfera sin aprovechamiento. Esta situación abre una oportunidad de recuperación de calor que podría reducir la dependencia de combustibles auxiliares y mejorar la eficiencia global de la planta. El presente Trabajo Fin de Máster analiza distintas alternativas para el calentamiento del agua utilizada en el secado de madera, comparando tres opciones: caldera de biomasa, caldera de gas natural y recuperación de calor de los hornos. Se desarrollan balances energéticos, análisis ambientales, estimaciones de costes y un pre-diseño del sistema seleccionado, incluyendo dimensionamiento preliminar y selección de materiales. El estudio concluye con la evaluación técnica, económica y ambiental de cada solución, identificando la alternativa más prometedora para su integración en la futura planta de producción de carbón vegetal.
La producción de carbón vegetal se ha convertido en una alternativa estratégica dentro del contexto actual de descarbonización y transición energética. Este recurso renovable, utilizado como reductor en la fabricación de ferroaleaciones como el ferrosilicio, ofrece ventajas ambientales frente al carbón mineral, pero su proceso de producción presenta desafíos significativos. Uno de ellos es el secado previo de la madera, etapa fundamental para garantizar un rendimiento adecuado en la pirólisis y, a su vez, una de las operaciones con mayor demanda de energía térmica dentro de la planta. Tradicionalmente, esta necesidad se cubre mediante calderas de biomasa o gas natural, soluciones fiables pero con costes operativos y un impacto ambiental relevante. Paralelamente, los hornos de pirólisis generan humos calientes con un contenido energético considerable, que en configuraciones convencionales se liberan a la atmósfera sin aprovechamiento. Esta situación abre una oportunidad de recuperación de calor que podría reducir la dependencia de combustibles auxiliares y mejorar la eficiencia global de la planta. El presente Trabajo Fin de Máster analiza distintas alternativas para el calentamiento del agua utilizada en el secado de madera, comparando tres opciones: caldera de biomasa, caldera de gas natural y recuperación de calor de los hornos. Se desarrollan balances energéticos, análisis ambientales, estimaciones de costes y un pre-diseño del sistema seleccionado, incluyendo dimensionamiento preliminar y selección de materiales. El estudio concluye con la evaluación técnica, económica y ambiental de cada solución, identificando la alternativa más prometedora para su integración en la futura planta de producción de carbón vegetal.
Dirección
RODIL RODRIGUEZ, EVA (Tutoría)
Vázquez Varela, Alfonso Cotutoría
RODIL RODRIGUEZ, EVA (Tutoría)
Vázquez Varela, Alfonso Cotutoría
Tribunal
MOSQUERA CORRAL, ANUSKA (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
MOSQUERA CORRAL, ANUSKA (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
VISTA (Inteligencia Visual para el Entrenamiento y la Evaluación Basados en Escenas)
Autoría
M.O.N.
Máster Universitario en Inteligencia Artificial
M.O.N.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
19.02.2026 12:15
19.02.2026 12:15
Resumen
A medida que la población mundial envejece, se ha intensificado la demanda de intervenciones no farmacológicas y escalables para el deterioro cognitivo. Esta Trabajo de Fin de Máster presenta VISTA (Inteligencia Visual para el Entrenamiento y la Evaluación Basados en Escenas), un marco novedoso que integra el razonamiento visual neuro-simbólico con el Aprendizaje por Refuerzo (RL) para ofrecer un entrenamiento cognitivo adaptativo. Esta Tesis de Máster propone una arquitectura de doble motor: un motor de percepción que utiliza una red modificada de Alineación de Consistencia Multimodal Consciente del Contexto para generar ejercicios basados en hechos a partir de escenas visuales, y un motor de tutoría impulsado por una Red Q Profunda (DQN) que ajusta dinámicamente la dificultad del currículo. La evaluación cuantitativa en un conjunto de datos personalizado basado en CLEVR revela que el mecanismo de atención por similitud de coseno alcanza una precisión del 95.15%, superando significativamente a las líneas de base estándar en tareas de razonamiento lógico complejo. Además, el agente de tutoría de RL demuestra una adaptabilidad robusta, personalizando eficazmente las trayectorias de aprendizaje para perfiles de usuarios con dificultades, estándar y talentosos sin programación explícita basada en reglas. La experimentación y validación del sistema se llevó a cabo en un entorno simulado, lo que permite la reproducibilidad de los resultados obtenidos.
A medida que la población mundial envejece, se ha intensificado la demanda de intervenciones no farmacológicas y escalables para el deterioro cognitivo. Esta Trabajo de Fin de Máster presenta VISTA (Inteligencia Visual para el Entrenamiento y la Evaluación Basados en Escenas), un marco novedoso que integra el razonamiento visual neuro-simbólico con el Aprendizaje por Refuerzo (RL) para ofrecer un entrenamiento cognitivo adaptativo. Esta Tesis de Máster propone una arquitectura de doble motor: un motor de percepción que utiliza una red modificada de Alineación de Consistencia Multimodal Consciente del Contexto para generar ejercicios basados en hechos a partir de escenas visuales, y un motor de tutoría impulsado por una Red Q Profunda (DQN) que ajusta dinámicamente la dificultad del currículo. La evaluación cuantitativa en un conjunto de datos personalizado basado en CLEVR revela que el mecanismo de atención por similitud de coseno alcanza una precisión del 95.15%, superando significativamente a las líneas de base estándar en tareas de razonamiento lógico complejo. Además, el agente de tutoría de RL demuestra una adaptabilidad robusta, personalizando eficazmente las trayectorias de aprendizaje para perfiles de usuarios con dificultades, estándar y talentosos sin programación explícita basada en reglas. La experimentación y validación del sistema se llevó a cabo en un entorno simulado, lo que permite la reproducibilidad de los resultados obtenidos.
Dirección
CATALA BOLOS, ALEJANDRO (Tutoría)
CONDORI FERNANDEZ, OLINDA NELLY Cotutoría
CATALA BOLOS, ALEJANDRO (Tutoría)
CONDORI FERNANDEZ, OLINDA NELLY Cotutoría
Tribunal
GARCIA TAHOCES, PABLO (Presidente/a)
LAMA PENIN, MANUEL (Secretario/a)
VILA BLANCO, NICOLAS (Vocal)
GARCIA TAHOCES, PABLO (Presidente/a)
LAMA PENIN, MANUEL (Secretario/a)
VILA BLANCO, NICOLAS (Vocal)
Estrategias para la gestión de emisiones de gases de efecto invernadero en la franja fronteriza de San Diego California y Tijuana Baja California. Impacto de la movilidad urbana y la integración de tecnologías limpias
Autoría
E.P.A.
Máster Universitario en Ingeniería Ambiental (3ª ed)
E.P.A.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
23.02.2026 13:00
23.02.2026 13:00
Resumen
Tijuana, México y San Diego, EE.UU., dos países, dos estados, una región. Mal llamadas ciudades gemelas, no sólo comparten historia, cultura, tradición sino también importantes desafíos económicos, políticos, ambientales, uno de los cuales es tema principal de esta investigación. La calidad del aire, la salud pública y su correlación con los Gases de Efecto Invernadero (GEI). Ambas ciudades al ser centros de alta actividad industrial (industria maquiladora) y flujo vehicular, son responsables de una proporción significativa de estas emisiones. Si bien su cotidiana interrelación obliga diariamente a cientos de miles de personas a cruzar la frontera por diversos medios y diferentes motivaciones, no se puede evitar comparar los efectos de estos gases en ambas ciudades. El estudio de la emisión de gases en dos ciudades tan cercanas como Tijuana y San Diego lo son, permite comprender como es que influyen los contextos urbanos en el impacto ambiental de las mismas. Sin duda estas dos ciudades son un marco ideal para analizar factores como el crecimiento demográfico, la movilidad, la actividad industrial y las políticas públicas y de cooperación y su influencia en la generación de emisiones contaminantes. Este estudio pretende identificar las principales fuentes de emisión de GEI en la región así como evaluar y comparar las diferentes estrategias de mitigación implementadas y detectar las buenas practicas que puedan ser replicadas y adaptadas entre ambas ciudades fortaleciendo la cooperación bilateral.
Tijuana, México y San Diego, EE.UU., dos países, dos estados, una región. Mal llamadas ciudades gemelas, no sólo comparten historia, cultura, tradición sino también importantes desafíos económicos, políticos, ambientales, uno de los cuales es tema principal de esta investigación. La calidad del aire, la salud pública y su correlación con los Gases de Efecto Invernadero (GEI). Ambas ciudades al ser centros de alta actividad industrial (industria maquiladora) y flujo vehicular, son responsables de una proporción significativa de estas emisiones. Si bien su cotidiana interrelación obliga diariamente a cientos de miles de personas a cruzar la frontera por diversos medios y diferentes motivaciones, no se puede evitar comparar los efectos de estos gases en ambas ciudades. El estudio de la emisión de gases en dos ciudades tan cercanas como Tijuana y San Diego lo son, permite comprender como es que influyen los contextos urbanos en el impacto ambiental de las mismas. Sin duda estas dos ciudades son un marco ideal para analizar factores como el crecimiento demográfico, la movilidad, la actividad industrial y las políticas públicas y de cooperación y su influencia en la generación de emisiones contaminantes. Este estudio pretende identificar las principales fuentes de emisión de GEI en la región así como evaluar y comparar las diferentes estrategias de mitigación implementadas y detectar las buenas practicas que puedan ser replicadas y adaptadas entre ambas ciudades fortaleciendo la cooperación bilateral.
Dirección
HOSPIDO QUINTANA, ALMUDENA (Tutoría)
HOSPIDO QUINTANA, ALMUDENA (Tutoría)
Tribunal
Omil Prieto, Francisco (Presidente/a)
OTERO PEREZ, XOSE LOIS (Secretario/a)
GONZALEZ GARCIA, SARA (Vocal)
Omil Prieto, Francisco (Presidente/a)
OTERO PEREZ, XOSE LOIS (Secretario/a)
GONZALEZ GARCIA, SARA (Vocal)
Protobiome: redes prototípicas para la clasificación multiclase few-shot del microbioma oral
Autoría
E.P.V.
Máster Universitario en Inteligencia Artificial
E.P.V.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
18.02.2026 11:00
18.02.2026 11:00
Resumen
Los conjuntos de datos del microbioma oral se caracterizan por su alta dimensionalidad, dispersión y composicionalidad, lo que a menudo conduce a una mala generalización en los modelos tradicionales de aprendizaje automático en entornos de escasez de datos. En este trabajo, presentamos Protobiome, un marco de trabajo que utiliza redes prototípicas para la clasificación multiclase con pocos ejemplos en nichos salivales, subgingivales y supragingivales. Nuestro enfoque integra un preprocesamiento especializado, una selección de características y un aumento de datos adaptados al espacio simplex. Los resultados muestran que las redes prototípicas superan significativamente a los modelos del estado del arte , como XGBoost, en la detección de clases minoritarias. En el caso de las muestras de saliva, nuestro modelo alcanzó una puntuación F1 de gingivitis de 0,958 con una precisión y especificidad perfectas utilizando menos de 20 muestras. El análisis de explicabilidad mediante UMAP y SHAP confirma que el modelo identifica una jerarquía microbiana coherente, con variantes de secuencia de amplicones (ASV) específicas que sirven como indicadores discriminativos de la condición del paciente. Este estudio demuestra que el aprendizaje basado en métricas con pocos datos proporciona una base sólida e interpretable para el diagnóstico clínico no invasivo.
Los conjuntos de datos del microbioma oral se caracterizan por su alta dimensionalidad, dispersión y composicionalidad, lo que a menudo conduce a una mala generalización en los modelos tradicionales de aprendizaje automático en entornos de escasez de datos. En este trabajo, presentamos Protobiome, un marco de trabajo que utiliza redes prototípicas para la clasificación multiclase con pocos ejemplos en nichos salivales, subgingivales y supragingivales. Nuestro enfoque integra un preprocesamiento especializado, una selección de características y un aumento de datos adaptados al espacio simplex. Los resultados muestran que las redes prototípicas superan significativamente a los modelos del estado del arte , como XGBoost, en la detección de clases minoritarias. En el caso de las muestras de saliva, nuestro modelo alcanzó una puntuación F1 de gingivitis de 0,958 con una precisión y especificidad perfectas utilizando menos de 20 muestras. El análisis de explicabilidad mediante UMAP y SHAP confirma que el modelo identifica una jerarquía microbiana coherente, con variantes de secuencia de amplicones (ASV) específicas que sirven como indicadores discriminativos de la condición del paciente. Este estudio demuestra que el aprendizaje basado en métricas con pocos datos proporciona una base sólida e interpretable para el diagnóstico clínico no invasivo.
Dirección
VILA BLANCO, NICOLAS (Tutoría)
TOMAS CARMONA, INMACULADA Cotutoría
LAMAS PEREZ, JOSE MANUEL Cotutoría
VILA BLANCO, NICOLAS (Tutoría)
TOMAS CARMONA, INMACULADA Cotutoría
LAMAS PEREZ, JOSE MANUEL Cotutoría
Tribunal
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
VIDAL AGUIAR, JUAN CARLOS (Secretario/a)
Cotos Yáñez, José Manuel (Vocal)
TABOADA IGLESIAS, MARÍA JESÚS (Presidente/a)
VIDAL AGUIAR, JUAN CARLOS (Secretario/a)
Cotos Yáñez, José Manuel (Vocal)
Estimación monocular de la pose 6D de objetos para aplicaciones de realidad mixta
Autoría
D.P.
Máster Universitario en Visión por Computador
D.P.
Máster Universitario en Visión por Computador
Fecha de la defensa
04.02.2026 09:50
04.02.2026 09:50
Resumen
Este informe de tesis de maestría presenta un proceso completo para la estimación de la pose de objetos 6D en tiempo real en un hardware de realidad mixta independiente, específicamente en el visor Meta Quest 3. A diferencia de la detección tradicional de objetos 2D, la estimación de la pose 6D recupera tanto la posición 3D como las orientaciones 3D de un objeto. Esto permite una comprensión espacial precisa, crucial para aplicaciones de realidad mixta, como el guiado de ensamblajes, la accesibilidad y el entretenimiento. Este trabajo aprovecha la API Passthrough Camera de Meta, recientemente lanzada, para implementar tareas de visión artificial directamente en el dispositivo. El sistema propuesto consta de tres componentes principales: (1) un proceso de generación de datos sintéticos procedimentales que utiliza Python y Blender para crear imágenes de entrenamiento fotorrealistas con anotaciones 6D con precisión de píxeles; (2) una implementación de la arquitectura ligera YOLOX-6D-Pose, optimizada para la inferencia de bordes; y (3) una aplicación de realidad mixta basada en Unity que utiliza el motor de inferencia Unity Sentis. Los resultados experimentales demuestran una transferencia exitosa de simulación a realidad, logrando una recuperación promedio (RA) del 62,79 % en datos reales sin utilizar imágenes de entrenamiento reales. El estudio de ablación confirma la importancia de la aleatorización de dominios y mejora el rendimiento en más de un 12 %. Además, la cuantificación dinámica de INT8 redujo el tamaño del modelo en aproximadamente un 75 % y la latencia de inferencia a 201 ms con una pérdida de precisión mínima. Este trabajo valida la posibilidad de realizar estimaciones de pose 6D en gafas de realidad virtual (VR) de consumo, lo que abre el camino a aplicaciones de RM con reconocimiento espacial en diversas aplicaciones.
Este informe de tesis de maestría presenta un proceso completo para la estimación de la pose de objetos 6D en tiempo real en un hardware de realidad mixta independiente, específicamente en el visor Meta Quest 3. A diferencia de la detección tradicional de objetos 2D, la estimación de la pose 6D recupera tanto la posición 3D como las orientaciones 3D de un objeto. Esto permite una comprensión espacial precisa, crucial para aplicaciones de realidad mixta, como el guiado de ensamblajes, la accesibilidad y el entretenimiento. Este trabajo aprovecha la API Passthrough Camera de Meta, recientemente lanzada, para implementar tareas de visión artificial directamente en el dispositivo. El sistema propuesto consta de tres componentes principales: (1) un proceso de generación de datos sintéticos procedimentales que utiliza Python y Blender para crear imágenes de entrenamiento fotorrealistas con anotaciones 6D con precisión de píxeles; (2) una implementación de la arquitectura ligera YOLOX-6D-Pose, optimizada para la inferencia de bordes; y (3) una aplicación de realidad mixta basada en Unity que utiliza el motor de inferencia Unity Sentis. Los resultados experimentales demuestran una transferencia exitosa de simulación a realidad, logrando una recuperación promedio (RA) del 62,79 % en datos reales sin utilizar imágenes de entrenamiento reales. El estudio de ablación confirma la importancia de la aleatorización de dominios y mejora el rendimiento en más de un 12 %. Además, la cuantificación dinámica de INT8 redujo el tamaño del modelo en aproximadamente un 75 % y la latencia de inferencia a 201 ms con una pérdida de precisión mínima. Este trabajo valida la posibilidad de realizar estimaciones de pose 6D en gafas de realidad virtual (VR) de consumo, lo que abre el camino a aplicaciones de RM con reconocimiento espacial en diversas aplicaciones.
Dirección
FLORES GONZALEZ, JULIAN CARLOS (Tutoría)
Glowacki , David Ryan Cotutoría
FLORES GONZALEZ, JULIAN CARLOS (Tutoría)
Glowacki , David Ryan Cotutoría
Tribunal
GARCIA TAHOCES, PABLO (Presidente/a)
BREA SANCHEZ, VICTOR MANUEL (Secretario/a)
López Martínez, Paula (Vocal)
GARCIA TAHOCES, PABLO (Presidente/a)
BREA SANCHEZ, VICTOR MANUEL (Secretario/a)
López Martínez, Paula (Vocal)
Diseño y validación de un asistente conversacional confiable apoyado en técnicas de generación aumentada por recuperación.
Autoría
D.R.M.
Máster Universitario en Inteligencia Artificial
D.R.M.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
03.02.2026 13:00
03.02.2026 13:00
Resumen
Los Grandes Modelos de Lenguaje (LLMs) han demostrado capacidades notables en la comprensión y generación del lenguaje natural. Sin embargo, su uso en ámbitos sensibles como la medicina o el derecho plantea dudas sobre su fiabilidad, transparencia y confianza. En respuesta a estos desafíos, han surgido técnicas de Generación Aumentada por Recuperación (RAG) para fundamentar los resultados generados en datos documentales fiables. Este trabajo de fin de Máster propone una arquitectura RAG que amplía el flujo de trabajo base mediante la integración de múltiples mecanismos de protección, incluyendo un módulo de verificación de consultas para detectar preguntas fuera de dominio, un sistema de recuperación multifuente junto con mecanismos de refinamiento de conocimiento para optimizar la extracción de información de la base de conocimiento y un módulo de cadena de pensamiento (Chain of Thought) para mejorar las capacidades de razonamiento del modelo generador. En los tres experimentos realizados, los resultados demuestran que la inclusión de cada mecanismo de protección mejora el rendimiento del sistema en diferentes entornos. En concreto, la arquitectura propuesta rechaza con mayor precisión las preguntas fuera de dominio y mejora la eficacia de la recuperación en comparación con recuperadores ampliamente utilizados, como BM25. También logra un rendimiento mejorado en tareas de respuesta a preguntas de opción múltiple y verificación de datos a través de su diseño de almacenamiento vectorial dual y su módulo de cadena de pensamiento.
Los Grandes Modelos de Lenguaje (LLMs) han demostrado capacidades notables en la comprensión y generación del lenguaje natural. Sin embargo, su uso en ámbitos sensibles como la medicina o el derecho plantea dudas sobre su fiabilidad, transparencia y confianza. En respuesta a estos desafíos, han surgido técnicas de Generación Aumentada por Recuperación (RAG) para fundamentar los resultados generados en datos documentales fiables. Este trabajo de fin de Máster propone una arquitectura RAG que amplía el flujo de trabajo base mediante la integración de múltiples mecanismos de protección, incluyendo un módulo de verificación de consultas para detectar preguntas fuera de dominio, un sistema de recuperación multifuente junto con mecanismos de refinamiento de conocimiento para optimizar la extracción de información de la base de conocimiento y un módulo de cadena de pensamiento (Chain of Thought) para mejorar las capacidades de razonamiento del modelo generador. En los tres experimentos realizados, los resultados demuestran que la inclusión de cada mecanismo de protección mejora el rendimiento del sistema en diferentes entornos. En concreto, la arquitectura propuesta rechaza con mayor precisión las preguntas fuera de dominio y mejora la eficacia de la recuperación en comparación con recuperadores ampliamente utilizados, como BM25. También logra un rendimiento mejorado en tareas de respuesta a preguntas de opción múltiple y verificación de datos a través de su diseño de almacenamiento vectorial dual y su módulo de cadena de pensamiento.
Dirección
ALONSO MORAL, JOSE MARIA (Tutoría)
CATALA BOLOS, ALEJANDRO Cotutoría
ALONSO MORAL, JOSE MARIA (Tutoría)
CATALA BOLOS, ALEJANDRO Cotutoría
Tribunal
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
VALLADARES RODRIGUEZ, SONIA MARIA (Secretario/a)
PICHEL CAMPOS, JOSE RAMON (Vocal)
BUGARIN DIZ, ALBERTO JOSE (Presidente/a)
VALLADARES RODRIGUEZ, SONIA MARIA (Secretario/a)
PICHEL CAMPOS, JOSE RAMON (Vocal)
Descarbonización de procesos intensivos en energía mediante análisis de ciclo de vida: secadero de madera con vapor sobrecalentado
Autoría
S.R.P.
Máster Universitario en Ingeniería Ambiental (3ª ed)
S.R.P.
Máster Universitario en Ingeniería Ambiental (3ª ed)
Fecha de la defensa
23.02.2026 12:30
23.02.2026 12:30
Resumen
La etapa de secado de maderera se caracteriza por un alto consumo energético, que representa alrededor del 60% del total de la industria. El secado en hornos (kiln drying) es la tecnología dominante para reducir el contenido de humedad en los tablones y cumplir con los estándares industriales. Actualmente, la mayoría de los hornos emplean procesos de combustión para la generación de calor, por lo que el desarrollo de alternativas más eficientes y electrificadas resulta clave para disminuir las emisiones directas del sector. El TFM se enfocó en el diseño de un kiln dryer que, en lugar de aire caliente, utilice vapor sobrecalentado como medio de secado. Esta tecnología emergente puede reducir de forma notable las emisiones de carbono gracias a dos mecanismos: (1) la recuperación del calor latente del agua evaporada en los tablones, mediante un aumento de presión y un intercambiador de calor, y (2) la posibilidad de electrificar la generación y recuperación de calor a través de tecnologías como Mechanical Vapor Recompression o bombas de calor. Se desarrolló un modelo matemático en Python para simular la transferencia de calor y masa en el secado, evaluando las condiciones de operación y la evolución del contenido de humedad en la pila de tablones. Paralelamente, el sistema de recuperación de calor fue simulado en Aspen PLUS. Finalmente, se evaluó la reducción de la huella de carbono y el perfil ambiental mediante Análisis de Ciclo de Vida, comparando con el proceso convencional según datos bibliográficos y/o simulados.
La etapa de secado de maderera se caracteriza por un alto consumo energético, que representa alrededor del 60% del total de la industria. El secado en hornos (kiln drying) es la tecnología dominante para reducir el contenido de humedad en los tablones y cumplir con los estándares industriales. Actualmente, la mayoría de los hornos emplean procesos de combustión para la generación de calor, por lo que el desarrollo de alternativas más eficientes y electrificadas resulta clave para disminuir las emisiones directas del sector. El TFM se enfocó en el diseño de un kiln dryer que, en lugar de aire caliente, utilice vapor sobrecalentado como medio de secado. Esta tecnología emergente puede reducir de forma notable las emisiones de carbono gracias a dos mecanismos: (1) la recuperación del calor latente del agua evaporada en los tablones, mediante un aumento de presión y un intercambiador de calor, y (2) la posibilidad de electrificar la generación y recuperación de calor a través de tecnologías como Mechanical Vapor Recompression o bombas de calor. Se desarrolló un modelo matemático en Python para simular la transferencia de calor y masa en el secado, evaluando las condiciones de operación y la evolución del contenido de humedad en la pila de tablones. Paralelamente, el sistema de recuperación de calor fue simulado en Aspen PLUS. Finalmente, se evaluó la reducción de la huella de carbono y el perfil ambiental mediante Análisis de Ciclo de Vida, comparando con el proceso convencional según datos bibliográficos y/o simulados.
Dirección
MOREIRA VILAR, MARIA TERESA (Tutoría)
FEIJOO COSTA, GUMERSINDO Cotutoría
MOREIRA VILAR, MARIA TERESA (Tutoría)
FEIJOO COSTA, GUMERSINDO Cotutoría
Tribunal
Omil Prieto, Francisco (Presidente/a)
OTERO PEREZ, XOSE LOIS (Secretario/a)
GONZALEZ GARCIA, SARA (Vocal)
Omil Prieto, Francisco (Presidente/a)
OTERO PEREZ, XOSE LOIS (Secretario/a)
GONZALEZ GARCIA, SARA (Vocal)
Hacia una gestión sostenible de la pesca en los mares Atlántico y Mediterráneo: un marco de evaluación de servicios ecosistémicos
Autoría
R.R.S.
Máster Universitario en Ingeniería Química y Bioprocesos (2ª ed)
R.R.S.
Máster Universitario en Ingeniería Química y Bioprocesos (2ª ed)
Fecha de la defensa
19.02.2026 12:30
19.02.2026 12:30
Resumen
La sostenibilidad de la pesca extractiva constituye un reto prioritario en un contexto de intensificación de presiones sobre los ecosistemas marinos y los recursos pesqueros. Abordar este desafío requiere enfoques de evaluación integrados que permitan caracterizar no solo el desempeño ambiental de las pesquerías, sino también las dimensiones socioeconómica y de gobernanza que condicionan su viabilidad a largo plazo. En este marco, el presente trabajo desarrolla un marco integral de indicadores orientado a evaluar la sostenibilidad de la actividad pesquera desde una perspectiva ecosistémica. El marco propuesto se construye a partir de la integración de fuentes científicas y técnico-institucionales de referencia sobre la actividad pesquera y se articula mediante una estructura jerárquica que permite integrar información procedente de diferentes niveles de análisis. Este planteamiento facilita una lectura conjunta y coherente de los resultados, refuerza su interpretabilidad y mejora la utilidad del marco como herramienta de apoyo a los procesos de evaluación y toma de decisiones en el ámbito de la gestión pesquera. La aplicabilidad del marco se demuestra mediante su aplicación en dos regiones marinas europeas con contextos ecológicos y de gestión contrastados: el Golfo de Vizcaya y la Costa Ibérica Atlántica, y el Mediterráneo Occidental. El análisis se desarrolla combinando una evaluación integral de la pesca a escala regional con una evaluación a escala especie para tres poblaciones representativas. Los resultados evidencian diferencias regionales significativas en términos de sostenibilidad. El Golfo de Vizcaya y la Costa Ibérica Atlántica presentan, en general, un estado más favorable de los recursos, asociado a una mayor productividad de los stocks y a un mejor desempeño socioeconómico. En contraste, el Mediterráneo Occidental presenta un desempeño ambiental menos favorable, con presiones más intensas sobre los recursos y situaciones especialmente comprometidas para determinadas poblaciones, como la merluza europea. En conjunto, los resultados demuestran la capacidad del marco de indicadores para identificar puntos críticos de sostenibilidad, comparar el desempeño entre regiones y aportar evidencia para el diseño y ajuste de políticas pesqueras basadas en criterios científicos. El enfoque integrado adoptado permite disponer de una base analítica coherente para el seguimiento del sector y para orientar estrategias de gestión adaptativa orientadas a reforzar la resiliencia de los ecosistemas marinos y de los sistemas pesqueros.
La sostenibilidad de la pesca extractiva constituye un reto prioritario en un contexto de intensificación de presiones sobre los ecosistemas marinos y los recursos pesqueros. Abordar este desafío requiere enfoques de evaluación integrados que permitan caracterizar no solo el desempeño ambiental de las pesquerías, sino también las dimensiones socioeconómica y de gobernanza que condicionan su viabilidad a largo plazo. En este marco, el presente trabajo desarrolla un marco integral de indicadores orientado a evaluar la sostenibilidad de la actividad pesquera desde una perspectiva ecosistémica. El marco propuesto se construye a partir de la integración de fuentes científicas y técnico-institucionales de referencia sobre la actividad pesquera y se articula mediante una estructura jerárquica que permite integrar información procedente de diferentes niveles de análisis. Este planteamiento facilita una lectura conjunta y coherente de los resultados, refuerza su interpretabilidad y mejora la utilidad del marco como herramienta de apoyo a los procesos de evaluación y toma de decisiones en el ámbito de la gestión pesquera. La aplicabilidad del marco se demuestra mediante su aplicación en dos regiones marinas europeas con contextos ecológicos y de gestión contrastados: el Golfo de Vizcaya y la Costa Ibérica Atlántica, y el Mediterráneo Occidental. El análisis se desarrolla combinando una evaluación integral de la pesca a escala regional con una evaluación a escala especie para tres poblaciones representativas. Los resultados evidencian diferencias regionales significativas en términos de sostenibilidad. El Golfo de Vizcaya y la Costa Ibérica Atlántica presentan, en general, un estado más favorable de los recursos, asociado a una mayor productividad de los stocks y a un mejor desempeño socioeconómico. En contraste, el Mediterráneo Occidental presenta un desempeño ambiental menos favorable, con presiones más intensas sobre los recursos y situaciones especialmente comprometidas para determinadas poblaciones, como la merluza europea. En conjunto, los resultados demuestran la capacidad del marco de indicadores para identificar puntos críticos de sostenibilidad, comparar el desempeño entre regiones y aportar evidencia para el diseño y ajuste de políticas pesqueras basadas en criterios científicos. El enfoque integrado adoptado permite disponer de una base analítica coherente para el seguimiento del sector y para orientar estrategias de gestión adaptativa orientadas a reforzar la resiliencia de los ecosistemas marinos y de los sistemas pesqueros.
Dirección
MOREIRA VILAR, MARIA TERESA (Tutoría)
MOREIRA VILAR, MARIA TERESA (Tutoría)
Tribunal
MOSQUERA CORRAL, ANUSKA (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
MOSQUERA CORRAL, ANUSKA (Presidente/a)
Pedrouso Fuentes, Alba (Secretario/a)
RODRIGUEZ MARTINEZ, HECTOR (Vocal)
Evaluación de herramientas de aceleración de redes neuronales y técnicas de optimización para implementaciones periféricas basadas en FPGA
Autoría
Y.S.I.
Máster Universitario en Inteligencia Artificial
Y.S.I.
Máster Universitario en Inteligencia Artificial
Fecha de la defensa
18.02.2026 17:30
18.02.2026 17:30
Resumen
La demanda industrial para implementar modelos de redes neuronales eficientes en sistemas periféricos basados en FPGA motiva este trabajo, en el que el rendimiento y la eficiencia energética son restricciones fundamentales. Para abordar este reto, se ha desarrollado y evaluado un flujo de optimización unificado que integra la poda one-step, el reentrenamiento, la cuantificación INT8 posterior al entrenamiento y la compilación a FPGA utilizando AMD Vitis AI. El proceso se evalúa en tres modelos representativos que abarcan tareas de visión artificial y procesamiento del lenguaje natural. Se utilizan ResNet-18 y ENet para evaluar el impacto de la poda y la cuantificación en los modelos orientados a la visión, mientras que se incluye BERT-Large para evaluar la aplicabilidad del flujo de trabajo más allá de las arquitecturas convolucionales. Los resultados experimentales muestran que la poda estructurada mejora significativamente el rendimiento de la FPGA y la eficiencia energética de los modelos de visión, con ResNet-18 aumentando el rendimiento de 418,02 a 637,98 FPS (+52,6 %) y mejorando la eficiencia energética de 12,3 a 20,4 FPS/W. En el caso de ENet, la poda y la cuantificación INT8 mejoran el rendimiento del lado del servidor de 27,61 a 34,25 FPS (+24,0 %) con una reducción de 1,10 puntos en el mIoU (del 93,43 % al 92,33 %), mientras que la ejecución a doble hilo en la FPGA alcanza hasta 17,22 FPS y 0,65 FPS/W frente a los 12,81 FPS y 0,44 FPS/W del modelo base. Por el contrario, aunque la cuantificación INT8 preserva la precisión de BERT-Large en la servidor, la compilación a FPGA no se puede completar debido al soporte limitado del compilador para operadores específicos del transformador. Estos resultados ponen en evidencia que la evaluación por parte del servidor por sí sola puede ser insuficiente para caracterizar la eficiencia de la implementación, lo que motiva la realización de mediciones a nivel de hardware. Si bien la poda y la cuantificación mejoran eficazmente el rendimiento integrado de los modelos de visión, la implementación de transformadores en FPGA sigue estando limitada por la compilación y el soporte de las operaciones.
La demanda industrial para implementar modelos de redes neuronales eficientes en sistemas periféricos basados en FPGA motiva este trabajo, en el que el rendimiento y la eficiencia energética son restricciones fundamentales. Para abordar este reto, se ha desarrollado y evaluado un flujo de optimización unificado que integra la poda one-step, el reentrenamiento, la cuantificación INT8 posterior al entrenamiento y la compilación a FPGA utilizando AMD Vitis AI. El proceso se evalúa en tres modelos representativos que abarcan tareas de visión artificial y procesamiento del lenguaje natural. Se utilizan ResNet-18 y ENet para evaluar el impacto de la poda y la cuantificación en los modelos orientados a la visión, mientras que se incluye BERT-Large para evaluar la aplicabilidad del flujo de trabajo más allá de las arquitecturas convolucionales. Los resultados experimentales muestran que la poda estructurada mejora significativamente el rendimiento de la FPGA y la eficiencia energética de los modelos de visión, con ResNet-18 aumentando el rendimiento de 418,02 a 637,98 FPS (+52,6 %) y mejorando la eficiencia energética de 12,3 a 20,4 FPS/W. En el caso de ENet, la poda y la cuantificación INT8 mejoran el rendimiento del lado del servidor de 27,61 a 34,25 FPS (+24,0 %) con una reducción de 1,10 puntos en el mIoU (del 93,43 % al 92,33 %), mientras que la ejecución a doble hilo en la FPGA alcanza hasta 17,22 FPS y 0,65 FPS/W frente a los 12,81 FPS y 0,44 FPS/W del modelo base. Por el contrario, aunque la cuantificación INT8 preserva la precisión de BERT-Large en la servidor, la compilación a FPGA no se puede completar debido al soporte limitado del compilador para operadores específicos del transformador. Estos resultados ponen en evidencia que la evaluación por parte del servidor por sí sola puede ser insuficiente para caracterizar la eficiencia de la implementación, lo que motiva la realización de mediciones a nivel de hardware. Si bien la poda y la cuantificación mejoran eficazmente el rendimiento integrado de los modelos de visión, la implementación de transformadores en FPGA sigue estando limitada por la compilación y el soporte de las operaciones.
Dirección
TABOADA IGLESIAS, MARÍA JESÚS (Tutoría)
Losada Sanisidro, Pablo Cotutoría
Febles Rodríguez, Adriana Cotutoría
TABOADA IGLESIAS, MARÍA JESÚS (Tutoría)
Losada Sanisidro, Pablo Cotutoría
Febles Rodríguez, Adriana Cotutoría
Tribunal
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
SANTOS MATEOS, ROI (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vocal)
IGLESIAS RODRIGUEZ, ROBERTO (Presidente/a)
SANTOS MATEOS, ROI (Secretario/a)
CARIÑENA AMIGO, MARIA PURIFICACION (Vocal)
Predicción de Scanpaths usando pistas implícitas en Datos de Movimientos Oculares Ruidosos
Autoría
L.U.F.
Máster Universitario en Visión por Computador
L.U.F.
Máster Universitario en Visión por Computador
Fecha de la defensa
04.02.2026 09:30
04.02.2026 09:30
Resumen
El seguimiento ocular es una herramienta vital para la investigación psicológica y psicofisiológica; sin embargo, la obtención de datos fiables suele requerir equipos costosos y entornos de laboratorio controlados. Si bien se han desarrollado alternativas más asequibles, a menudo carecen de la precisión y las frecuencias de muestreo necesarias para un estudio científico riguroso. En este trabajo, proponemos un modelo que integra datos de seguimiento ocular ruidosos y de baja frecuencia de muestreo con características de las imágenes usadas de estímulo para reconstruir secuencias de centroides de fijación y sus duraciones correspondientes. Nuestro enfoque busca producir datos que mantengan las propiedades estadísticas obtenidas con los sistemas de seguimiento de alta gama. Para ello, utilizamos el conjunto de datos CocoFreeView para generar realistas movimientos oculares realistas y desarrollamos un modelo de ruido que simula las características de los rastreadores oculares comerciales de uso generalizado. Finalmente, aprovechamos una arquitectura basada en Transformer con un codificador de imágenes DINOv3 para recuperar la información de fijación original.
El seguimiento ocular es una herramienta vital para la investigación psicológica y psicofisiológica; sin embargo, la obtención de datos fiables suele requerir equipos costosos y entornos de laboratorio controlados. Si bien se han desarrollado alternativas más asequibles, a menudo carecen de la precisión y las frecuencias de muestreo necesarias para un estudio científico riguroso. En este trabajo, proponemos un modelo que integra datos de seguimiento ocular ruidosos y de baja frecuencia de muestreo con características de las imágenes usadas de estímulo para reconstruir secuencias de centroides de fijación y sus duraciones correspondientes. Nuestro enfoque busca producir datos que mantengan las propiedades estadísticas obtenidas con los sistemas de seguimiento de alta gama. Para ello, utilizamos el conjunto de datos CocoFreeView para generar realistas movimientos oculares realistas y desarrollamos un modelo de ruido que simula las características de los rastreadores oculares comerciales de uso generalizado. Finalmente, aprovechamos una arquitectura basada en Transformer con un codificador de imágenes DINOv3 para recuperar la información de fijación original.
Dirección
CORES COSTA, DANIEL (Tutoría)
CORES COSTA, DANIEL (Tutoría)
Tribunal
GARCIA TAHOCES, PABLO (Presidente/a)
BREA SANCHEZ, VICTOR MANUEL (Secretario/a)
López Martínez, Paula (Vocal)
GARCIA TAHOCES, PABLO (Presidente/a)
BREA SANCHEZ, VICTOR MANUEL (Secretario/a)
López Martínez, Paula (Vocal)