DIA. Tesis del Departamento de Informática y Automática
http://hdl.handle.net/10366/4394
2024-03-19T01:04:21ZImproving personalized elderly care: an approach using cognitive agents to better assist elderly people
http://hdl.handle.net/10366/153202
[ES]El envejecimiento de la población a nivel global es una constante cada vez más presente en el día a día y las consecuencias derivadas de este problema son cada vez más impactantes para el correcto funcionamiento y estructuración de la sociedad. En este contexto, hablamos de consecuencias a nivel de crecimiento económico, estilos de vida (y jubilación), relaciones familiares, recursos disponibles por el gobierno a la franja etaria más anciana e inevitablemente la prevalencia de enfermedades crónicas.
Es ante esta realidad que surge la necesidad de desarrollo y promoción de estrategias eficaces en el acompañamiento, prevención y estímulo al envejecimiento activo y saludable de la población para garantizar que las personas ancianas continúen teniendo un papel relevante en la sociedad en lugar de someterse al aislamiento y fácil deterioro de las capacidades físicas, cognitivas, emocionales y sociales. De esta forma, tiene todo el sentido aprovechar todos los desarrollos tecnológicos verificados en los últimos años, principalmente en lo que se refiere a avances en las áreas de dispositivos móviles,
inteligencia artificial y sistemas de monitoreo y crear soluciones capaces de brindar apoyo diariamente al recopilar datos e indicadores del estado de salud y, en respuesta, proporcionar diversas acciones personalizadas que motiven la adopción de mejores hábitos de salud y medios para lograr este envejecimiento activo y saludable. El desafío consiste en motivar a esta población a conciliar su día a día con el interés y la voluntad de utilizar aplicaciones y sistemas que brinden este apoyo personalizado. Algunas de las abordajes recientemente explorados en la literatura con este objetivo y que han alcanzado resultados prometedores se basan en la utilización de técnicas de gamificación e incentivo al cumplimiento de desafíos a nivel de salud (como si la persona estuviera jugando un juego) y la utilización de interacciones personalizadas con objetos (ya sean físicos como robots o virtuales como avatares) capaces de brindar feedback más personal, creando así una conexión más cercana entre ambas entidades. El trabajo aquí presentado combina estas ideas y resulta en un enfoque inteligente para la promoción del bienestar de la población anciana a través de un sistema de
cuidados de salud personalizado. Este sistema incorpora diversas técnicas de gamificación para la promoción de mejores hábitos y comportamientos, y la utilización de un asistente virtual cognitivo capaz de entender las necesidades e intereses del usuario para posibilitar un feedback e interacción personalizados con el fin de ayudar y motivar al cumplimiento de los diferentes desafíos y objetivos que se identifiquen. El enfoque propuesto fue validado a través de un estudio con 12 usuarios ancianos
y se lograron resultados significativos en términos de usabilidad, aceptación y efectos de salud. Específicamente, los resultados obtenidos permiten respaldar la importancia y el efecto positivo de combinar técnicas de gamificación e interacción con un asistente virtual cognitivo que traduzca el progreso del estado de salud del usuario, ya que se lograron mejoras significativas en los resultados de salud después de la intervención. Además, los resultados de usabilidad obtenidos mediante la cumplimentación de un cuestionario de usabilidad confirmaron la buena adhesión a el enfoque presentado. Estos resultados validan la hipótesis de la investigación estudiada en el desarrollo de
esta disertación.
2023-01-01T00:00:00ZDesarrollo y evaluación de entornos virtuales aplicados a la ciencia e ingeniería de materiales
http://hdl.handle.net/10366/152712
[ES] El desarrollo y mejoras exponenciales que han experimentado las tecnologías de la
información y la comunicación (ICT, del término inglés Information and Communication
Technologies) en las últimas décadas ha traído aparejada la aparición de dispositivos que
ofrecen funcionalidades difícilmente imaginables a finales del siglo pasado. Estas
innovaciones tecnológicas han penetrado, en mayor o en menor media, en
prácticamente todas las capas de la sociedad transformando la mayoría de los ámbitos
profesionales, científicos, educativos, culturales, etc. Al amparo de esta transformación
tecnológica, las tecnologías de realidad-virtualidad (RVT, del término inglés Reality-Virtuality Technologies) con mayor presencia en el mercado (es decir, realidad virtual
(VR, del término inglés Virtual Reality), realidad aumentada (AR, del término inglés
Augmented Reality) y realidad mixta (MR, del término inglés Mixed Reality)) han
experimentado una notable mejora y abaratamiento, factores que han propiciado su
expansión en numerosos ámbitos. La Ciencia e Ingeniería de Materiales (MSE, del
término inglés Materials Science and Engineering) no es ajena a esta expansión de las
RVT, siendo actualmente posible encontrar numerosos ejemplos de uso de estas
tecnologías circunscritas a la MSE. Esta tesis doctoral aborda la investigación de
diferentes aspectos del desarrollo y uso de herramientas basadas en RVT empleadas
dentro del ámbito de la MSE.
La primera parte de esta investigación persigue conocer el estado del arte en el uso de
las RVT en el ámbito de la MSE para, de este modo, facilitar la apertura de nuevas líneas
de investigación y la adquisición de ideas de desarrollo. Para ello, en primer lugar, se
han analizado las aplicaciones basadas en RVT circunscritas a la MSE desarrolladas entre
2010 y 2021, con independencia de su propósito. Este análisis ha permitido conocer en
qué áreas de la MSE se enmarcan las aplicaciones basadas en RVT, a qué sectores se
dirigen, qué RVT emplean y qué propiedades de las mismas explotan. En segundo lugar,
se analizaron las aplicaciones basadas en VR o AR que se han desarrollado hasta el año
2020 destinadas a dar soporte a la enseñanza de cristalografía. Además, se ha
desarrollado una aplicación basada en VR orientada a facilitar la enseñanza de las redes
de Bravais y se ha propuesto un procedimiento de uso y evaluación en el aula.
La segunda parte de esta investigación analiza el proceso de creación de laboratorios
virtuales destinados a facilitar la enseñanza de MSE en los grados de ingeniería. En
particular, esta parte de la investigación analiza qué factores deben ser tenidos en
cuenta por los docentes cuando crean laboratorios virtuales para que logren maximizar
el aprendizaje significativo de los estudiantes, es decir, que sean capaces de comprender
mejor y por más tiempo aquello que se les enseña. Para alcanzar este objetivo, por una
parte, se analizó el proceso de desarrollo de diferentes laboratorios virtuales destinados
a dar soporte a la enseñanza de ensayos de materiales. Por otra parte, se analizaron los
resultados de los cuestionarios respondidos por diferentes grupos de alumnos un año
después de usar los laboratorios virtuales analizados. De este modo ha sido posible
establecer una serie de aspectos que deben ser tenidos en cuenta durante el proceso
de desarrollo de las aplicaciones basadas en VR destinadas a facilitar el proceso de
enseñanza-aprendizaje de MSE, de manera que se maximice el aprendizaje significativo
del alumno.
La tercera parte de esta investigación ahonda en el modo en que afecta el paso del
tiempo a la eficacia formativa de los laboratorios virtuales destinados a dar soporte a la
enseñanza de MSE. En este sentido, se han analizado las opiniones vertidas por
diferentes grupos de estudiantes que utilizaron laboratorios virtuales y se comprobó
cómo su motivación por utilizar dichos laboratorios disminuía (y, por tanto, la eficacia
formativa de estas herramientas educativas también disminuía) con el transcurso de los
años. En esta parte de la investigación se analizó este fenómeno circunscrito a
aplicaciones basadas en VR orientadas a facilitar la enseñanza de MSE, constatándose
su relación directa con las leyes de evolución del software establecidas por Lehman. El
estudio llevado a cabo reveló que, si estas aplicaciones educativas son actualizadas
periódicamente empleando herramientas de desarrollo actuales, es posible mantener
su atractivo para los estudiantes y con él su eficacia formativa.
[EN] The exponential development and improvements that information and communication
technologies (ICT) have undergone in recent decades have brought with them the
appearance of devices that offer functionalities that would have been difficult to
imagine at the end of the last century. These technological innovations have
permeated, to a greater or lesser extent, practically all layers of society, transforming
most professional, scientific, educational, cultural, etc. fields. As a result of this
technological transformation, the reality-virtuality technologies (RVT) with the greatest
presence in the market (i.e., virtual reality (VR), augmented reality (AR) and mixed
reality (MR)) have experienced a significant improvement and reduction in price,
factors that have led to their expansion in many fields. Materials Science and
Engineering (MSE) is no exception to this expansion of VRT, and it is currently possible
to find numerous examples of the use of these technologies in MSE. This doctoral thesis
investigates different aspects of the development and use of RVT-based tools used in
the field of MSE.
The first part of this research aims to know the state of the art in the use of VRT in the
field of MSE in order to facilitate the opening of new lines of research and the acquisition
of development ideas. To this end, first of all, it has been analysed the applications based
on RVT in the field of MSE developed between 2010 and 2021, regardless of their
purpose. This analysis has provided insight into which areas of the MSE the RVT-based
applications fall into, which sectors they target, which RVT they use and which properties
they exploit. Secondly, the VR or AR-based applications that have been developed up to
2020 to support the teaching of crystallography were analysed. In addition, a VR-based
application has been developed to facilitate the teaching of Bravais lattices and a
procedure for its use and evaluation in the classroom has been proposed.
The second part of this research analyses the process of creating virtual laboratories
aimed at facilitating the teaching of MSE in engineering degrees. In particular, this part
of the research analyses which factors should be taken into account by teachers when
creating virtual laboratories in order to maximise students' meaningful learning, i.e., that they are able to understand better and for longer what they are taught. To achieve this
objective, on the one hand, the development process of different virtual laboratories
designed to support the teaching of materials testing was analysed. On the other hand,
the results of the questionnaires answered by different groups of students one year after
using the virtual laboratories analysed were examined. In this way, it has been possible
to establish a series of aspects that should be taken into account during the development
process of VR-based applications aimed at facilitating the MSE teaching-learning
process, so as to maximise meaningful learning of students.
The third part of this research explores how the passage of time affects the learning
effectiveness of virtual laboratories designed to support MSE teaching. In this regard, the
opinions expressed by different groups of students who used virtual laboratories were
analysed and it was found that their motivation to use these laboratories decreased
(and, therefore, the learning effectiveness of these educational tools also decreased)
over the years. This part of the research analysed this phenomenon limited to VR-based
applications aimed at facilitating the teaching of MSE and found a direct relationship
with the laws of software evolution established by Lehman. The study revealed that, if
these educational applications are regularly updated using current development tools, it
is possible to maintain their desirability for students and thus their educational
effectiveness.
2022-01-01T00:00:00ZIngeniería metabólica en Ashbya gossypii para el desarrollo de bioprocesos industriales. Biología sintética y economía circular
http://hdl.handle.net/10366/152583
[ES] El Pacto Verde Europeo adoptado por la Comisión Europea tiene como objetivo hacer
frente al cambio climático y a la degradación del medio ambiente. En este sentido, es de gran
interés el empleo de materias primas renovables y el aprovechamiento de residuos generados
por otros sectores e industrias como la biomasa lignocelulósica, constituida por glucosa y
xilosa principalmente. En consecuencia, conseguir un uso eficiente de xilosa en fermentaciones
microbianas se ha convertido en un objetivo importante en biotecnología.
Ashbya gossypii es un hemiascomiceto filamentoso empleado para la producción de
riboflavina y otros compuestos de interés industrial como nucleósidos, folatos y biolípidos,
entre otros. Su importancia en la industria ha contribuido a su estudio y al desarrollo de
herramientas moleculares para su manipulación. La ingeniería metabólica de este hongo ha
permitido emplear medios de cultivo con xilosa como única fuente de carbono. Sin embargo,
la construcción de diseños más complejos requiere el desarrollo de nuevas herramientas
moleculares. En este contexto, se ha diseñado un sistema CRISPR/Cas9 adaptado a A. gossypii.
Así, se ha comprobado la introducción eficiente de deleciones, sustituciones e inserciones de
nucleótidos sin la integración genómica de marcadores de resistencia. Además, se ha llevado
a cabo la caracterización de secuencias promotoras empleando del sistema Dual Luciferase
Reporter (DLR). Las secuencias promotoras descritas se agrupan en tres grupos según su
actividad transcripcional en promotores fuertes, medios y débiles. Adicionalmente, el sistema
DLR se ha empleado para evaluar la funcionalidad de sitios reguladores pertenecientes a genes
que controlan la ruta de producción de riboflavina. Por otro lado, mediante el empleo de estas
herramientas y las ya existentes, se ha llevado a cabo la modificación de la ruta del mevalonato
de A. gossypii para la producción de limoneno en cepas capaces de usar xilosa como única
fuente de carbono. La sobreexpresión heteróloga de la limoneno sintasa de Citrus limon, junto
con la sobreexpresión de los genes endógenos HMG1 y ERG12, además de la sobreexpresión
de la ruta ortogonal NDPS1 ha permitido obtener una cepa de A. gossypii que produce 336.4
mg/L de limoneno en cultivos con xilosa como principal fuente de carbono.
Este trabajo aporta nuevas herramientas de edición genómica de A. gossypii para la
implementación de nuevas estrategias de ingeniería metabólica, como la producción de
monoterpenos, demostrando la versatilidad e importancia de A. gossypii como factoría
microbiana capaz de aprovechar residuos agroindustriales ricos en xilosa.
[EN] The European Green Deal adopted by the European Commission contains a set of
proposals aiming at combating climate change and environmental degradation. In this regard,
the utilization of renewable materials and residues such as lignocellulosic biomass, composed
mainly by glucose and xylose, it is of great interest. Consequently, the implementation of
efficient systems for the utilization of xylose in microbial fermentations has become an
important goal in biotechnology.
Ashbya gossypii is a filamentous hemiascomycete that is currently exploited to produce
riboflavin and other high-value compounds such as nucleosides, folates and biolipids. Its
industrial relevance has promoted its research and the development of molecular tools.
Therefore, the metabolic engineering of this fungus has enabled to design strains that can grow
in cultures with xylose as the only carbon source. However, the construction of highly complex
designs relies on the development of new methods to expand the molecular toolkit of this
microbial factory. Hence, a one-vector CRISPR/Cas9 system for genomic engineering of A.
gossypii has been developed. The efficiency of this genomic edition system as a marker-less
approach has been validated for nucleotide deletions, substitutions, and insertions. Besides,
an adaptation of the Dual Luciferase Reporter (DLR) system has been implemented for the
identification of novel promoters in A. gossypii. The new promoter sequences described can be
grouped into three classes according to their transcriptional activity in strong, medium, and
weak promoters. In addition, the functionality of regulatory sites belonging to genes that
control the riboflavin pathway has been evaluate in A. gossypii with this DLR system.
Furthermore, novel strains of A. gossypii have been developed to produce limonene from
xylose, through metabolic engineering of the mevalonate pathway. The overexpression of the
limonene synthase from Citrus limon together with the overexpression of the endogenous
HMG1 and ERG12 genes, and the overexpression of an heterologous orthogonal NDPS1
pathway triggered a limonene accumulation of 336.4 mg/L in cultures with xylose as the main
carbon source.
This work presents new molecular tools for A. gossypii that can help to promote new
advanced strategies for the metabolic engineering of the fungus, such as the production of
monoterpenes. This emerging biotechnological application highlights the importance of A.
gossypii as a microbial factory that can grow on xylose-rich agro-industrial residues.
2022-01-01T00:00:00ZArquitecturas blockchain para compartir información y optimizar servicios en tiempo de ejecución
http://hdl.handle.net/10366/152582
[ES] La tecnología blockchain, en base a sus características de transparencia, inmutabilidad,
y democracia de los datos, se presenta como el potencial disruptor de la industria
actual. El paradigma que presenta la industria hoy, basado en el Internet de las
Cosas, genera una gran cantidad de comunicaciones entre los dispositivos, donde pueden
existir problemas a la hora de verificar el origen y autoría de los datos generados.
Por esta razón, la blockchain se presenta como una tecnología que puede solucionar
los problemas mencionados. Sin embargo, la tecnología blockchain no está exenta de
sus propios problemas: consumo de energía excesivo para preservar la seguridad en la
red, imposibilidad por sí sola para detectar corrupción en el origen de los datos, o
las violaciones a la intimidad y privacidad de los usuarios por la transparencia de la
información almacenada.
En la literatura se han propuesto soluciones a la hora de enfrentar los desafíos que
presenta esta tecnología como, por ejemplo, (i) sustituir el uso de redes públicas por
redes permisionadas, optimizando el consumo energético de la red al no ser necesario
un algoritmo tan estricto para garantizar su seguridad, (ii) almacenar datos sensibles
off-chain, utilizando la blockchain como método de verificación de la información,
resumiéndola con el hash, o (iii) reducir la funcionalidad de las soluciones propuestas,
eliminando servicios que potencialmente podrían ofrecer.
En primer lugar, esta investigación realiza un estudio y análisis sobre las soluciones
propuestas en la literatura, encontrando que, (i) no hacen frente a todos los desafíos
que propone esta tecnología, o (ii) la centralización de su propuesta no justifica la
implementación de la red blockchain. Todo esto hace imposible la implementación de
estas arquitecturas en un escenario real, donde los marcos regulatorios cada vez son más
estrictos.
En base a las carencias encontradas en el Estado del Arte, esta Tesis Doctoral
propone dos arquitecturas en diferentes ´ámbitos: la industria logística farmacéutica y el
intercambio de electricidad en mercados automáticos. En el primer caso, se hace uso de
modelos de teorías de juegos, para asegurar el buen comportamiento de los actores en
la plataforma, además de sistemas de auditabilidad para tener controlado los posibles
fallos técnicos que puedan ocurrir en los dispositivos. En el segundo caso, se hace uso de
pruebas de conocimiento nulo y firmas en anillo para asegurar la privacidad y seguridad de los datos y los usuarios. Estas dos arquitecturas hacen frente a los desafíos que
propone la tecnología blockchain, y permiten su implementación dentro de cualquier
ámbito regulatorio.
[EN] Blockchain technology, based on its characteristics of transparency, immutability, and
data democracy, is presented as the potential disruptor of the current industry. The
paradigm presented by the industry today, based on the Internet of Things, generates
a large amount of communications between devices, where there may be problems
when verifying the origin and authorship of the data generated. For this reason,
blockchain is presented as a technology that can solve the aforementioned problems.
However, blockchain technology is not exempt from its own problems: excessive energy
consumption to preserve network security, impossibility by itself to detect corruption in
the origin of the data, or violations to the privacy and intimacy of the users due to the
transparency of the stored information.
In the literature, solutions have been proposed to face the challenges presented by
this technology: for example, replacing the use of public networks with permissioned
networks, optimizing the energy consumption of the network by not requiring such a
strict algorithm to guarantee its security, or storing sensitive data off-chain, using the
blockchain as a method of verifying the information, by hashing it, or simply simplifying
and centralizing the functionality of the proposed solutions.
In this research, a study and analysis of the proposed solutions in the literature is carried
out, finding that either they do not meet all the challenges proposed by this technology,
or the centralization of its proposal does not justify the implementation of the blockchain
network. All this makes it impossible to implement these architectures in a real scenario,
where regulatory frameworks are increasingly strict.
On the other hand, this Doctoral Thesis proposes two architectures in different fields, the
pharmaceutical logistics industry and the exchange of electricity in automatic markets.
In the first case, game theory models are used to ensure the good behavior of the actors
in the platform, as well as auditability systems to control possible technical failures that
may occur in the devices. In the second, use is made of null knowledge tests and ring
signatures to ensure the privacy and security of data and users. The analysis shown by
these two architectures concludes that both meet the challenges proposed in the field
of blockchain technology, the latter being the most complete that can be implemented
within any regulatory environment.
2022-01-01T00:00:00ZResumen de tesis. Decision support for participation in electricity markets considering the transaction of services and electricity at the local level
http://hdl.handle.net/10366/152512
[EN] The growing concerns regarding the lack of fossil fuels, their costs, and their
impact on the environment have led governmental institutions to launch energy
policies that promote the increasing installation of technologies that use
renewable energy sources to generate energy. The increasing penetration of
renewable energy sources brings a great fluctuation on the generation side,
which strongly affects the power and energy system management. The control of
this system is moving from hierarchical and central to a smart and distributed
approach. The system operators are nowadays starting to consider the final end users (consumers and prosumers) as a part of the solution in power system
operation activities. In this sense, the end-users are changing their behavior from
passive to active players. The role of aggregators is essential in order to empower
the end-users, also contributing to those behavior changes. Although in several
countries aggregators are legally recognized as an entity of the power and energy
system, its role being mainly centered on representing end-users in wholesale
market participation.
This work contributes to the advancement of the state-of-the-art with
models that enable the active involvement of the end-users in electricity markets
in order to become key participants in the management of power and energy
systems. Aggregators are expected to play an essential role in these models,
making the connection between the residential end-users, electricity markets,
and network operators. Thus, this work focuses on providing solutions to a wide
variety of challenges faced by aggregators.
The main results of this work include the developed models to enable
consumers and prosumers participation in electricity markets and power and
energy systems management. The proposed decision support models consider
demand-side management applications, local electricity market models,
electricity portfolio management, and local ancillary services.
The proposed models are validated through case studies based on real data.
The used scenarios allow a comprehensive validation of the models from
different perspectives, namely end-users, aggregators, and network operators.
The considered case studies were carefully selected to demonstrate the characteristics of each model, and to demonstrate how each of them contributes
to answering the research questions defined to this work.; [ES] La creciente preocupación por la escasez de combustibles fósiles, sus costos
y su impacto en el medio ambiente ha llevado a las instituciones
gubernamentales a lanzar políticas energéticas que promuevan la creciente
instalación de tecnologías que utilizan fuentes de energía renovables para
generar energía. La creciente penetración de las fuentes de energía renovable trae
consigo una gran fluctuación en el lado de la generación, lo que afecta
fuertemente la gestión del sistema de potencia y energía. El control de este
sistema está pasando de un enfoque jerárquico y central a un enfoque inteligente
y distribuido. Actualmente, los operadores del sistema están comenzando a
considerar a los usuarios finales (consumidores y prosumidores) como parte de
la solución en las actividades de operación del sistema eléctrico. En este sentido,
los usuarios finales están cambiando su comportamiento de jugadores pasivos a
jugadores activos. El papel de los agregadores es esencial para empoderar a los
usuarios finales, contribuyendo también a esos cambios de comportamiento.
Aunque en varios países los agregadores están legalmente reconocidos como una
entidad del sistema eléctrico y energético, su papel se centra principalmente en
representar a los usuarios finales en la participación del mercado mayorista.
Este trabajo contribuye al avance del estado del arte con modelos que
permiten la participación activa de los usuarios finales en los mercados eléctricos
para convertirse en participantes clave en la gestión de los sistemas de potencia
y energía. Se espera que los agregadores desempeñen un papel esencial en estos
modelos, haciendo la conexión entre los usuarios finales residenciales, los
mercados de electricidad y los operadores de red. Por lo tanto, este trabajo se
enfoca en brindar soluciones a una amplia variedad de desafíos que enfrentan los
agregadores.
Los principales resultados de este trabajo incluyen los modelos
desarrollados para permitir la participación de los consumidores y prosumidores
en los mercados eléctricos y la gestión de los sistemas de potencia y energía. Los
modelos de soporte de decisiones propuestos consideran aplicaciones de gestión
del lado de la demanda, modelos de mercado eléctrico local, gestión de cartera
de electricidad y servicios auxiliares locales.
Los modelos propuestos son validan mediante estudios de casos basados en
datos reales. Los escenarios utilizados permiten una validación integral de los
modelos desde diferentes perspectivas, a saber, usuarios finales, agregadores y
operadores de red. Los casos de estudio considerados fueron cuidadosamente
seleccionados para demostrar las características de cada modelo y demostrar
cómo cada uno de ellos contribuye a responder las preguntas de investigación
definidas para este trabajo.
2022-01-01T00:00:00ZDeep Learning for Computer Vision in Smart Cities
http://hdl.handle.net/10366/150948
[EN] The Digital Age has caused a rapid shift from traditional industry to an economy
mainly based upon information technology. According to recent studies, 74 zettabytes
(ZB) of data have been generated, captured and replicated in the world in 2021, with
video accounting for 82% of internet traffic. This figure has been amplified due to
the coronavirus pandemic, and it is expected to keep increasing, reaching 149 ZB by
2024. Processing this impressive amount of information is one of the main scientific
challenges of our time. Against this backdrop, Machine Learning (ML) and two related
paradigms have emerged: big data and deep learning. These disciplines take advantage
of mathematical optimization methods, bioinspiration and modern Graphics Processing
Units (GPUs) to manage large datasets efficiently and effectively.
Cities from around the world have adapted the previous methods to make use of the
newly available data, promoting themselves as “smart”. Apart from aiming to integrate
innovative technologies in their daily operation, Smart Cities (SCs) aim to attract new
residents and external investors.
Some of the key motivations of the Horizon projects and NextGenerationEU funds are
precisely to make cities more digital, greener, healthier and robust. Artificial Intelligence
(AI) can greatly contribute to the achievement of those objectives. Several lines of action
have been identified in SCs, such as: smart mobility, smart environment, smart people,
smart living and smart economy.
This dissertation focuses on vision applications of deep learning within the scope of SCs.
Theoretical and practical research gaps are identified and suitable solutions are proposed.
As a result, the state of the art has been pushed forward and new use cases have been
successfully implemented. A novel solution is proposed for each of the identified lines of
action.
Two models have been designed and evaluated with special attention to efficiency and
scalability, and a third model has been created and tested focusing on accuracy within
a high-resource environment. Moreover, two novel methods have been developed: a
method for automatising crucial healthcare challenges, making early diagnosis an option;
and another method for automatic unbiased cadastral categorization.
2022-01-01T00:00:00ZAutomatic generation of software interfaces for supporting decisionmaking processes. An application of domain engineering & machine learning
http://hdl.handle.net/10366/150839
[EN] Data analysis is a key process to foster knowledge generation in particular domains
or fields of study. With a strong informative foundation derived from the analysis of
collected data, decision-makers can make strategic choices with the aim of obtaining
valuable benefits in their specific areas of action. However, given the steady growth
of data volumes, data analysis needs to rely on powerful tools to enable knowledge
extraction.
Information dashboards offer a software solution to analyze large volumes of
data visually to identify patterns and relations and make decisions according to the
presented information. But decision-makers may have different goals and,
consequently, different necessities regarding their dashboards. Moreover, the variety
of data sources, structures, and domains can hamper the design and implementation
of these tools.
This Ph.D. Thesis tackles the challenge of improving the development process of
information dashboards and data visualizations while enhancing their quality and
features in terms of personalization, usability, and flexibility, among others.
Several research activities have been carried out to support this thesis. First, a
systematic literature mapping and review was performed to analyze different
methodologies and solutions related to the automatic generation of tailored
information dashboards. The outcomes of the review led to the selection of a modeldriven
approach in combination with the software product line paradigm to deal with
the automatic generation of information dashboards.
In this context, a meta-model was developed following a domain engineering
approach. This meta-model represents the skeleton of information dashboards and
data visualizations through the abstraction of their components and features and has
been the backbone of the subsequent generative pipeline of these tools.
The meta-model and generative pipeline have been tested through their
integration in different scenarios, both theoretical and practical. Regarding the theoretical dimension of the research, the meta-model has been successfully
integrated with other meta-model to support knowledge generation in learning
ecosystems, and as a framework to conceptualize and instantiate information
dashboards in different domains.
In terms of the practical applications, the focus has been put on how to transform
the meta-model into an instance adapted to a specific context, and how to finally
transform this later model into code, i.e., the final, functional product. These practical
scenarios involved the automatic generation of dashboards in the context of a Ph.D.
Programme, the application of Artificial Intelligence algorithms in the process, and
the development of a graphical instantiation platform that combines the meta-model
and the generative pipeline into a visual generation system.
Finally, different case studies have been conducted in the employment and
employability, health, and education domains. The number of applications of the
meta-model in theoretical and practical dimensions and domains is also a result itself.
Every outcome associated to this thesis is driven by the dashboard meta-model, which
also proves its versatility and flexibility when it comes to conceptualize, generate, and
capture knowledge related to dashboards and data visualizations.
2022-01-01T00:00:00ZTecnologías vestibles para la seguridad en el trabajo: un modelo basado en los equipos de protección individual inteligentes
http://hdl.handle.net/10366/150132
[ES]La inteligencia artificial de las cosas, o AIoT por sus siglas en inglés Artificial Intelligence of Things, se presenta como la unión de tecnologías de inteligencia artificial con la infraestructura de Internet de las cosas para conseguir dispositivos Internet of Things (IoT) más recientes. La combinación de AIoT con el uso de la tecnología vestible o wearable se presenta como un conjunto de técnicas clave en la implantación de soluciones de monitorización y prevención dentro del sector industrial, motor principal del desarrollo económico y social de la sociedad. Además, con la integración de la tecnología Edge Computing en las plataformas se consigue preprocesar los datos y filtrar aquellos que se necesiten enviar desde la capa IoT a la nube, solucionando problemas relativos a la privacidad y seguridad de los datos, así como la reducción de costes en servicios Cloud. Es necesario que los trabajadores del sector conozcan y cumplan las normas de seguridad de la industria, destinadas a garantizar su seguridad en el trabajo, pero además, se requiere una transformación en los Equipos de Protección Individual (EPIs) y sistemas auxiliares de detección, aviso e identificación de riesgos; dotándoles de inteligencia para la toma de decisiones. La solución propuesta tiene un enfoque holístico motivado en generar una plataforma que componga un entorno mucho más favorable para la protección personal de los trabajadores. Para ello, se han analizado las diferentes soluciones y equipos que puedan integrarse en un modelo que optimice la detección y prevención de riesgos, así como la detección de las condiciones de salud inherentes a tareas específicas en el lugar de trabajo. La plataforma incorpora la capacidad de recepción de datos y generación de alarmas, combinando el uso de dispositivos electrónicos wearables e IoT, Inteligencia Artificial y Edge Computing. Gracias a la agregación e integración de las tecnologías citadas se permite generar soluciones que mejoren la seguridad y productividad, se consigue disminuir las bajas laborales y a su vez tener un mayor control de la industria y sus operarios. Con ello se dota a la plataforma de mayores capacidades que las soluciones desarrolladas hasta la fecha, generando una plataforma modular que agrupa nuevos dispositivos wearables combinados con tecnologías permiten realizar una medición de parámetros corporales, reconocimiento de la actividad humana, detección de contaminantes y la detección de situaciones anómalas para generar entornos de trabajo más seguros.; [EN]The industrial sector is key to economic and social development; however, it is also known to entail certain risks for workers. To ensure their security, workers in the sector must be informed of and comply with industrial safety standards. Moreover, industries are required to transform their Personal Protective Equipment (PPE) and auxiliary systems by providing them with intelligence for timely risk identi cation, warnings, and decision-making. Arti cial Intelligence of Things, or AIoT for short, combines Arti cial Intelligence technologies with Internet of Things infrastructure to achieve more eficient Internet of Things (IoT) devices, creating great potential for industrial use. In addition, platforms that integrate Edge Computing technology have the ability to preprocess data and lter those that need to be sent from the IoT layer to the Cloud. This not only solves problems related to data privacy and security but also reduces Cloud service costs. Thus, in this thesis, the joint use of AIoT and wearable technology is proposed through a set of key techniques, devices and a platform for worker monitoring and risk prevention in an industrial setting. The proposed solution has a holistic approach aimed at creating a much more favorable environment for the personal protection of workers. Prior to developing the proposed platform, an analysis has been carried out of the state-of-the-art solutions and equipment found in the literature, speci cally, of the solutions that could be integrated in a system for the optimized prevention of risks and detection of health conditions. The developed platform has a modular design, combining the use of wearable technology, IoT electronic devices, Arti cial Intelligence and Edge Computing. The results obtained in this thesis evidence that the proposed platform's capabilities surpass other solutions developed to date; the platform has the ability to receive data, emit alarms, measure body parameters, recognize human activity, detect pollutants and anomalous situations, creating safer working conditions.
2022-01-01T00:00:00ZResumen de tesis. Machine learning and econometric applications for increasing profitability and efficiency: A case study on sustainable production and trade in agro-based industries
http://hdl.handle.net/10366/149567
[ES] Se espera que en 2050 la poblaci´on mundial haya alcanzado los 9 000 millones de
personas. El crecimiento de la poblaci´on a nivel mundial va a dar lugar a un crecimiento
en la demanda de productos de consumo derivados de la agricultura. Es por ello que se
espera que la producci´on agr´ıcola incremente alrededor de un 70 % a nivel mundial. Las
aplicaciones tecnol´ogicas en agricultura en los ´ultimos a˜nos han permitido aumentar la
producci´on y contribuir a la reducci´on de la contaminaci´on, utilizar de forma sostenible
los recursos naturales, prever costes, mitigar riesgos e incluso poder anticiparse a una
potencial quiebra. En este sentido, uno de los retos de los pr´oximos a˜nos a nivel global
es dise˜nar metodolog´ıas que permitan a las empresas del sector agropecuario ser m´as
eficientes y sostenibles independientemente del ´ındice de desarrollo tecnol´ogico de la
regi´on en la que se encuentren.
En esta investigaci´on, tomando como caso de estudio el sector agropecuario, se ha
dise˜nado y validado una metodolog´ıa modular que combina algoritmos de aprendizaje
autom´atico y modelos econom´etricos orientada a la mejora de la gesti´on de los recursos,
permitir a las empresas m´as competitivas y sostenibles para fomentar su inversi´on.
Para desarrollar la metodolog´ıa se han llevado a cabo tres experimentos. El primer
experimento se ha orientado a medir la eficiencia de recursos a partir de un m´etodo
no param´etrico para la estimaci´on de las fronteras de producci´on en el que se han
incorporado los costes derivados de las transferencias de datos, permitiendo identificar
las fronteras de producci´on m´as ´optimas teniendo en cuenta los costes tecnol´ogicos. Para
el segundo experimento se ha dise˜nado un sistema multi-agente para predecir oscilaciones
de los precios en los mercados de futuros en productos derivados del sector agropecuario.
El sistema multi-agente est´a dise˜nado como un sistema de apoyo a la toma de decisiones
en el que los potenciales compradores o vendedores pueden incorporar par´ametros de
impacto medioambiental. Finalmente, el ´ultimo experimento consiste en el dise˜no de
una metodolog´ıa de razonamiento basado en casos para la recomendaci´on de inversi´on
en una empresa. El ´ultimo experimento permite incorporar capital a las empresas del
sector agropecuario para invertir en tecnolog´ıa. Adem´as, se ha implementado una mejora
sobre tercer experimento en el que se ha podido incrementar el rendimiento del sistema de
recomendaci´on de inversiones, en el que en la parte de clasificaci´on se comparan distintas
m´etricas de evaluaci´on en las situaciones en los que los datos no est´an balanceados.; [EN] By 2050, the world population is expected to reach 9 billion people. Global population
growth will lead to an increase in consumer demand for products derived from
agriculture. As a result, agricultural production is expected to increase by approximately
70% worldwide. Over the last years, technological applications have made it possible
to increase agricultural production and contribute to reduce pollution, the sustainable
use of natural resources, cost forecast, risk mitigation and even potential bankruptcy
anticipation. In this regard, one of the global, near-future challenges is designing
methodologies that enable companies in the agricultural sector to be more efficient and
sustainable regardless of the technological development index of the region in which they
are located.
In this research, taking the agricultural sector as a case study, has been designed
and validated a modular methodology that combines machine learning algorithms
and econometric models aimed at improving the management of resources, allowing
companies to be more competitive and sustainable in order to encourage their
investment. To develop the methodology, three experiments were carried out. The
first experiment was aimed at measuring resource efficiency based on a non-parametric
method for estimating production frontiers in which the costs derived from data transfers
were incorporated, making it possible to identify the most optimal production frontiers
taking into account technological costs. For the second experiment, a multi-agent
system has been designed to predict price variations in futures markets for agricultural
products. The multi-agent system is been designed as a decision support system in
which potential buyers or sellers can incorporate environmental impact parameters.
Finally, the last experiment consists of the design of a case-based reasoning methodology
for the recommendation of investment in a company. The last experiment enables
the incorporation of investment of capital to companies in the agricultural sector.
In addition, to increase the performance of the investment recommender system an
improvement has been implemented in the third experiment. This improvement has
made it possible for the system’s classification element to compare different evaluation
metrics in situations where the data labels are not balanced.
2022-01-01T00:00:00ZSistemas hápticos para el entrenamiento de profesionales sanitarios
http://hdl.handle.net/10366/149558
[ES] La robótica tiene un papel fundamental en nuestros días, desde la industria hasta nuestros hogares. Sin embargo, una de las aplicaciones más interesantes para la sociedad son aquellas que tienen que ver con la formación. De todas las áreas, la medicina ocupa un papel fundamental, pues la formación involucra a seres humanos lo que limita enormemente las actividades a realizar. Uno de los campos con más utilidad de la medicina actual es la imagen y dentro de ella la basada en la ecografía.
Los avances que ha sufrido la ecografía en las últimas décadas han posibilitado que, en la actualidad, sea utilizada en un amplio número de especialidades de diagnóstico y tratamiento médico. En este sentido, la ecografía es una técnica con numerosas ventajas en procedimientos de exploración y en procedimientos de guiado en la inserción de agujas. Sin embargo, a pesar de ser una técnica con una gran cantidad de ventajas, es muy dependiente del operador, ya que este debe tener las habilidades necesarias para obtener las imágenes ecográficas correspondientes en cada caso, para interpretarlas y, si es preciso, para introducir la aguja sin producir lesiones al paciente.
En relación a esto, la formación de los profesionales que van a practicar los procedimientos es vital para su éxito, ya que la mayor parte de los problemas relacionados con el uso de la ecografía se deben a la falta de formación del operador que la practica. Sin embargo, la formación de profesionales en el uso de estas técnicas es una tarea complicada. En muchas ocasiones, esta se limita al aprendizaje por oportunidad, el cual está basado en practicar cuando existe un paciente que padece una enfermedad concreta.
En este sentido, los simuladores son una de las mejores opciones para la formación y entrenamiento de profesionales de la sanidad, ya que permiten la transmisión estructurada de conocimiento de forma segura e ilimitada. En este contexto, los simuladores hápticos añaden la capacidad de transmitir sensaciones a través del sentido del tacto, de forma que, el aprendizaje transmitido es más robusto, ya que incluye la percepción de distancias, movimientos, fuerzas, formas o texturas.
Sin embargo, las soluciones de simulación háptica que existen actualmente, normalmente están centradas únicamente en la ecografía y no incluyen procedimientos de inserción de agujas y, si lo hacen, es de forma virtual o utilizando un brazo articulado. Además, están limitadas por la necesidad de ser utilizados en instituciones clínicas o académicas, ya que o utilizan un ecógrafo real o imitan ecógrafos reales. En ambos casos sus precios pueden llegar a ser prohibitivos para cubrir las necesidades de formación actuales, sin olvidar que su portabilidad es limitada. Por otro lado, existen otras soluciones más económicas, sin embargo, no presentan una calidad adecuada y en numerosas ocasiones son difíciles de utilizar por personal no experto.
Debido a esto, en esta tesis se propone un simulador háptico con el que afrontar la formación segura de profesionales sanitarios en la ejecución de procedimientos ecográficos con o sin inserción de agujas. El simulador portable está focalizado en dos dispositivos hápticos de entrenamiento, una réplica de sonda y una aguja real que permiten adquirir un modelo mental con las habilidades necesarias para abordar dichos procedimientos.
[EN] Robotics plays a fundamental role in our days, from industry to our homes. However, one of the most interesting applications for society are those that have to do with training. Of all the areas, medicine occupies a fundamental role, since the training involves human beings, which greatly limits the activities to be carried out. One of the most useful fields in current medicine is imaging, and within it, imaging based on ultrasound.
The advances that ultrasound has undergone in recent decades have made it possible for it to be used today in a large number of specialties for diagnosis and medical treatment. In this sense, ultrasound is a technique with numerous advantages in exploration procedures and in guided needle insertion procedures. However, despite being a technique with many advantages, it is very dependent on the operator, since the latter must have the necessary skills to obtain the corresponding ultrasound images in each case, to interpret them and, if necessary, to enter the needle without injuring the patient.
In relation to this, the training of the professionals who are going to carry out the procedures is vital for their success, since most of the problems related to the use of ultrasound are due to the lack of training of the operator who practices it. However, training professionals in the use of these techniques is a complicated task. On many occasions, this is limited to opportunity learning, which is based on practicing when there is a patient suffering from a specific disease.
In this sense, simulators are one of the best options for the education and training of health professionals, since they allow the structured transmission of knowledge in a safe and unlimited way. In this context, haptic simulators add the ability to transmit sensations through the sense of touch, so that the transmitted learning is more robust, since it includes the perception of distances, movements, forces, shapes or textures.
However, the haptic simulation solutions that currently exist are usually focused solely on ultrasound and do not include needle insertion procedures and, if they do, it is virtually or using an articulated arm. Furthermore, they are limited by the need to be used in clinical or academic institutions, since they either use a real ultrasound machine or mimic real ultrasound machines. In both cases, their prices can become prohibitive to cover current training needs, without forgetting that their portability is limited. On the other hand, there are other cheaper solutions, however, they do not have adequate quality and on many occasions they are difficult to use by non-expert personnel.
Due to this, in this thesis a haptic simulator is proposed with which to face the safe training of health professionals in the execution of ultrasound procedures with or without needle insertion. The portable simulator is focused on two haptic training devices, a probe replica and a real needle that allow the acquisition of a mental model with the necessary skills to undertake said procedures.
2021-01-01T00:00:00ZControl predictivo basado en modelos fuzzy de sistemas complejos. Aplicación al control y supervisión de procesos de depuración de aguas
http://hdl.handle.net/10366/149476
[ES] El Control Predictivo basado en Modelos (MPC) es un caso particular de estrategia de control automático de procesos que abarca un conjunto de procedimientos cuyo denominador común es la utilización de un modelo de predicciones para determinar una ley de control óptima. El tipo de modelo elegido, los criterios de optimización y el procedimiento de deducción de la ley de control caracterizan cada una de las múltiples alternativas de MPC que existen. El control predictivo es una consolidada y, al mismo tiempo, prometedora estrategia de control con múltiples aplicaciones en el ámbito industrial y con numerosas líneas de investigación abiertas. Una de las modalidades de este tipo de control es el denominado Control Predictivo basado en Modelos Borrosos (FMBPC), que utiliza modelos cualitativos basados en reglas, globalmente no lineales, para representar el proceso a controlar. El control FMBPC está enmarcado en el subcampo del Control Predictivo No Lineal (NLMPC/NMPC) y al mismo tiempo pertenece también, parcialmente al menos, al campo del Control Inteligente (IC), debido a que utiliza una de las herramientas características de la inteligencia artificial, como es la lógica borrosa. En la Tesis Doctoral que aquí se presenta se considera una estrategia FMBPC cuyo modelo base es un modelo borroso, o Fuzzy Model (FM) en la literatura en inglés, de tipo Takagi-Sugeno (TS), obtenido mediante identificación a partir de series de datos numéricos de entrada-salida (que pueden ser datos estrictamente experimentales o adaptaciones de estos, generados en simulación). Esta característica dota a nuestra estrategia FMBPC de una interesante cualidad que aporta valor añadido dentro del campo del control NMPC, consistente en la útil información cualitativa implícita en el modelo borroso, consecuencia de la capacidad que tiene la identificación borrosa de capturar fielmente la dinámica de un sistema a partir de datos numéricos. Esta propiedad repercute directamente de forma positiva en la validez de las predicciones y supone, en última instancia, un incremento significativo del rendimiento o desempeño del algoritmo de control predictivo, en el caso de tratar con sistemas fuertemente no lineales, complejos o desconocidos. Esta es la razón por la que en esta tesis se propone la estrategia FMBPC como la idónea para abordar el control de un cierto tipo de procesos conocidos como Procesos de Fangos Activados (ASP), muy habituales como mecanismo de depuración biológica en Estaciones Depuradoras de Aguas Residuales (EDAR) (también conocidas en la literatura en inglés como Wastewater Treatment Plants (WWTP)). El interés de la propuesta es doble: por un lado, contribuir a ampliar las líneas de investigación en el campo del control predictivo no lineal y por otro, aportar una estrategia y una metodología que puedan ser útiles en la mejora de los procesos de depuración de aguas, cuya importancia en la salud pública y en el cuidado del medio ambiente es creciente, cono así se refleja en las legislaciones medioambientales, cada vez más exigentes.
Una parte importante del esfuerzo investigador desarrollado en la presente tesis ha sido enfocado a la aplicación de la estrategia FMBPC propuesta al paradigmático caso de estudio elegido (procesos biológicos ASP en plantas depuradoras de aguas residuales). Dadas las características de estos procesos, principalmente su alta no linealidad, su complejidad intrínseca y su carácter multivariable, derivadas de su naturaleza biológica, las investigaciones realizadas pueden trascender más allá del mero ámbito del propio proceso. La implementación practica se ha llevado a cabo mediante simulación y ello ha supuesto un importante reto, principalmente en dos aspectos: por un lado, el desarrollo del software necesario y por otro, la implementación de los cálculos matemáticos apropiados.
La investigación realizada puede descomponerse, de una manera esquemática, en las siguientes cuatro fases o etapas: a) identificación borrosa del proceso ASP a partir de datos numéricos de entrada-salida y conversión del modelo borroso obtenido en un modelo equivalente en el espacio de estados, discreto, lineal y variante en el tiempo (DLTV); b) determinación de una ley de control predictivo de tipo FMBPC, analítica y explícita, siguiendo los principios del denominado Control Predictivo Funcional (PFC); c) análisis de estabilidad local en lazo cerrado de la estrategia FMBPC propuesta; d) integración de esta estrategia dentro de la configuración de control predictivo conocida como Paradigma de Lazo Cerrado (CLP), también llamada control predictivo en lazo cerrado, con el objetivo de imponer restricciones de manera automática en la acción de control. Los resultados obtenidos son satisfactorios, principalmente en lo que se refiere a la demostración de la utilidad de la estrategia FMBPC propuesta como una alternativa válida en el campo del control predictivo no lineal, para sistemas complejos o desconocidos, con dos ventajas destacables en relación con otras estrategias, a saber: por un lado, la útil información contenida en el modelo base de las predicciones, capturada durante el proceso de identificación borrosa previo a la aplicación de la estrategia y, por otro, la forma analítica y explicita de la ley de control deducida, que facilita tanto la implementación del algoritmo de control como las tareas de análisis (entre ellas, las de análisis estabilidad).
[EN] Model Predictive Control (MPC) is a particular case of automatic process control strategy that encompasses a set of procedures whose common denominator is the use of a prediction model to determine an optimal control law. The type of model chosen, the optimization criteria and the control law deduction procedure characterize each one of the multiple MPC alternatives that exist. Predictive control is a consolidated and, at the same time, promises a control strategy with multiple applications in the industrial field and with many open lines of research. One of the modalities of this type of control is the so-called Fuzzy Model-Based Predictive Control (FMBPC), which uses qualitative models based on rules, globally non-linear, to represent the process to be controlled. The FMBPC control is framed in the subfield of Non-Linear Predictive Control (NLMPC/NMPC) and at the same time it also belongs, partially at least, to the field of Intelligent Control (IC), because it uses one of the characteristic tools of intelligence artificial, as is fuzzy logic. In the Doctoral Thesis presented here, a FMBPC strategy is considered whose base model is a fuzzy model, or Fuzzy Model (FM) in the English literature, of the Takagi-Sugeno (TS) type, obtained through identification from series of input-output numerical data (which can be strictly experimental data or adaptations of these, generated in simulation). This feature provides our FMBPC strategy with an interesting quality that provides added value within the field of NMPC control, consisting of the useful qualitative information indicated in the fuzzy model, a consequence of the fuzzy identification's ability to faithfully capture the dynamics of a system from numerical data. This property has a direct positive impact on the validity of the predictions and, ultimately, a significant increase in the performance of the predictive control algorithm, in the case of dealing with expensive non-linear, complex or unknown systems. This is the reason why in this thesis the FMBPC strategy is proposed as the ideal one to address the control of a certain type of processes known as Activated Sludge Processes (ASP), very common as a biological purification mechanism in Water Treatment Plants. Waste (WWTP) (also known in English literature as Wastewater Treatment Plants (WWTP)). The interest of the proposal is twofold: on the one hand, to contribute to expanding the lines of research in the field of nonlinear predictive control and, on the other, to provide a strategy and methodology that can be useful in improving the debugging processes of waters, whose importance in public health and in caring for the environment is growing, as reflected in the increasingly demanding environmental legislation.
An important part of the research effort developed in this thesis has been focused on the application of the FMBPC strategy to the chosen paradigmatic case study (ASP biological processes in wastewater treatment plants). Given the characteristics of these processes, mainly their high non-linearity, their intrinsic complexity and their multivariable character, derived from their biological nature, the investigations carried out can transcend beyond the mere scope of the process itself. The practical implementation has been carried out through simulation and this has been an important challenge, mainly in two aspects: on the one hand, the development of the necessary software and, on the other, the implementation of the appropriate mathematical calculations.
The research carried out can be broken down, schematically, into the following four phases or stages: a) fuzzy identification of the ASP process from numerical input-output data and conversion of the fuzzy model obtained into an equivalent model in the space of states , discrete, linear and variant in time (DLTV); b) determine a predictive control law of the FMBPC type, analytical and clean, following the principles of the so-called Predictive Functional Control (PFC); c) closed-loop local stability analysis of the proposed FMBPC strategy; d) integration of this strategy within the predictive control configuration known as Closed Loop Paradigm (CLP), also called closed loop predictive control, with the aim of automatically imposing restrictions on the control action. The results obtained are satisfactory, mainly in what refers to the demonstration of the utility of the FMBPC strategy as a valid alternative in the field of nonlinear predictive control, for complex or unknown systems, with two advantages
2021-01-01T00:00:00ZUso de aplicaciones de Realidad Virtual como apoyo a la docencia en asignaturas de Ciencia de Materiales de titulaciones técnicas
http://hdl.handle.net/10366/149422
[ES] En la presente Tesis doctoral se estudia el uso de las aplicaciones de Realidad Virtual No Inmersiva en la docencia práctica de las asignaturas técnicas en ciencia de materiales. Se consideran las fases del proceso: elección de los conceptos a desarrollar y objetivos, diseño de la aplicación en todos sus niveles: aspecto visual, sistemas de control, hardware y software necesarios, creación de la aplicación y pruebas de uso, etc.; así como la metodología de uso en las clases y los métodos de evaluación de su posible utilidad en la mejora de los resultados del aprendizaje de los estudiantes.
2021-01-01T00:00:00ZArquitectura para robots de búsqueda y rescate urbano mediante el uso de algoritmos de anti-feromonas
http://hdl.handle.net/10366/149389
[ES] El atentado del 11 de septiembre de 2001 fue el ataque terrorista con mayor mortalidad
en la historia de la humanidad, con un resultado de 2.996 muertes y mas de 25.000 heridos.
Entre las víctimas, un total de 343 bomberos y 72 policías perdieron sus vidas. La muerte de
una gran parte de estas personas, y en especial de los servicios de emergencia, fue a causa
del peligro que ataña acceder a través de los escombros de los edificios derruidos. Dada la
situación, varios equipo y universidades que disponían de robots de rescate, acudieron hasta
la zona cero para ayudar en la ardua tarea de buscar víctimas con vida. Este fatídico evento
provocó el auge de la investigación en el ámbito de la Búsqueda y Rescate Urbano. Desde
entonces hasta el día de hoy, se han empleado robots como respuesta a una catástrofe en
diversas ocasiones.
En este trabajo se ha desarrollado una arquitectura para el uso de un enjambre de
robots heterogéneo y semi-supervisado en un entorno de Búsqueda y Rescate Urbano. Más
concretamente, la arquitectura permite la combinación de diversos algoritmos orientados
a este ámbito para la obtención de un sistema complejo y a su vez independiente tanto
del hardware como de los métodos usados. Además, se propone una nueva estrategia de
exploración colaborativa basada en el comportamiento social de las hormigas. El algoritmo
planteado hace uso de feromonas repelentes como mecanismo para fomentar la exploración
en entornos desconocidos.
Para el análisis y prueba del algoritmo y la arquitectura propuestos en este trabajo, se han
diseñado una serie de experimentos. En primer lugar se ha analizado el comportamiento del
algoritmo de exploración con anti-feromonas en entornos acotados basados en topologías de
rejilla y de laberinto; posteriormente se han realizado en un entorno real. Los experimentos
han sido estudiados tanto con simulaciones como con robots reales. Para el análisis de la
arquitectura planteada, se ha implementado un sistema de búsqueda y rescate completo sobre
un robot Jetbot de Nvidia, el cual ha sido probado en un entorno real.
Para finalizar, se demuestra cómo la arquitectura planteada y el algoritmo propuestos
son soluciones adecuadas para su uso en respuesta a una catástrofe. Además, la arquitectura
planteada en este trabajo también puede permitir el uso de algoritmos que surjan en el futuro.
2021-01-01T00:00:00ZResumen de tesis. Ontologies for the Interoperability of Heterogeneous Multi-Agent Systems in the scope of Energy and Power Systems
http://hdl.handle.net/10366/149386
[ES]El sector eléctrico, tradicionalmente dirigido por monopolios y poderosas
empresas de servicios públicos, ha experimentado cambios significativos en las
últimas décadas. Los avances más notables son una mayor penetración de las
fuentes de energía renovable (RES por sus siglas en inglés) y la generación
distribuida, que han llevado a la adopción del paradigma de las redes inteligentes
(SG por sus siglas en inglés) y a la introducción de enfoques competitivos en los
mercados de electricidad (EMs por sus siglas en inglés) mayoristas y algunos
minoristas. Las SG emergieron rápidamente de un concepto ampliamente
aceptado en la realidad. La intermitencia de las fuentes de energía renovable y su
integración a gran escala plantea nuevas limitaciones y desafíos que afectan en
gran medida las operaciones de los EMs. El desafiante entorno de los sistemas de
potencia y energía (PES por sus siglas en inglés) refuerza la necesidad de
estudiar, experimentar y validar operaciones e interacciones competitivas,
dinámicas y complejas. En este contexto, la simulación, el apoyo a la toma de
decisiones, y las herramientas de gestión inteligente, se vuelven imprescindibles
para estudiar los diferentes mecanismos del mercado y las relaciones entre los
actores involucrados. Para ello, la nueva generación de herramientas debe ser
capaz de hacer frente a la rápida evolución de los PES, proporcionando a los
participantes los medios adecuados para adaptarse, abordando nuevos modelos
y limitaciones, y su compleja relación con los desarrollos tecnológicos y de
negocios.
Las plataformas basadas en múltiples agentes son particularmente
adecuadas para analizar interacciones complejas en sistemas dinámicos, como
PES, debido a su naturaleza distribuida e independiente. La descomposición de
tareas complejas en asignaciones simples y la fácil inclusión de nuevos datos y
modelos de negocio, restricciones, tipos de actores y operadores, y sus
interacciones, son algunas de las principales ventajas de los enfoques basados en
agentes. En este dominio, han surgido varias herramientas de modelado para
simular, estudiar y resolver problemas de subdominios específicos de PES. Sin
embargo, existe una limitación generalizada referida a la importante falta de
interoperabilidad entre sistemas heterogéneos, que impide abordar el problema
de manera global, considerando todas las interrelaciones relevantes existentes.
Esto es esencial para que los jugadores puedan aprovechar al máximo las
oportunidades en evolución. Por lo tanto, para lograr un marco tan completo aprovechando las herramientas existentes que permiten el estudio de partes
específicas del problema global, se requiere la interoperabilidad entre estos
sistemas.
Las ontologías facilitan la interoperabilidad entre sistemas heterogéneos al
dar un significado semántico a la información intercambiada entre las distintas
partes. La ventaja radica en el hecho de que todos los involucrados en un dominio
particular los conocen, comprenden y están de acuerdo con la conceptualización
allí definida. Existen, en la literatura, varias propuestas para el uso de ontologías
dentro de PES, fomentando su reutilización y extensión. Sin embargo, la mayoría
de las ontologías se centran en un escenario de aplicación específico o en una
abstracción de alto nivel de un subdominio de los PES. Además, existe una
considerable heterogeneidad entre estos modelos, lo que complica su integración
y adopción. Es fundamental desarrollar ontologías que representen distintas
fuentes de conocimiento para facilitar las interacciones entre entidades de
diferente naturaleza, promoviendo la interoperabilidad entre sistemas
heterogéneos basados en agentes que permitan resolver problemas específicos de
PES.
Estas brechas motivan el desarrollo del trabajo de investigación de este
doctorado, que surge para brindar una solución a la interoperabilidad de
sistemas heterogéneos dentro de los PES. Las diversas aportaciones de este
trabajo dan como resultado una sociedad de sistemas multi-agente (MAS por sus
siglas en inglés) para la simulación, estudio, soporte de decisiones, operación y
gestión inteligente de PES. Esta sociedad de MAS aborda los PES desde el EM
mayorista hasta el SG y la eficiencia energética del consumidor, aprovechando
las herramientas de simulación y apoyo a la toma de decisiones existentes,
complementadas con las desarrolladas recientemente, asegurando la
interoperabilidad entre ellas. Utiliza ontologías para la representación del
conocimiento en un vocabulario común, lo que facilita la interoperabilidad entre
los distintos sistemas. Además, el uso de ontologías y tecnologías de web
semántica permite el desarrollo de herramientas agnósticas de modelos para una
adaptación flexible a nuevas reglas y restricciones, promoviendo el razonamiento
semántico para sistemas sensibles al contexto.
2021-01-01T00:00:00ZResumen de tesis. Arquitectura Fog Computing para entornos FinTech
http://hdl.handle.net/10366/149362
[ES] El sector financiero ha sido uno de los primeros en aceptar y utilizar los nuevos avances de las TIC (Tecnologías de la Información y la Comunicación). Hay que tener en cuenta que, con la aparición de nuevos competidores en un entorno económico que cambia rápidamente, junto con unos requisitos normativos exigentes y costoso, los proveedores de servicios bancarios y financieros de hoy en día se enfrentan a una transformación sustancial: las finanzas digitales.
Los modelos de negocio tradicionales, basados en la tienda física y que no hacen uso de las TIC para llevar a cabo las campañas de marketing o ventas, están en desventaja ante una clientela más informada tecnológicamente. En este contexto, la mayoría de las partes interesadas en el sector intentan ofrecer productos y servicios financieros personalizados, inteligentes y versátiles, al tiempo que persiguen nuevos niveles de orientación hacia el cliente.
La tesis doctoral viene motivada por los nuevos retos del sector bancario que han surgido a raíz de la incorporación de las TIC, en los que se busca satisfacer las necesidades de los clientes a través de los servicios que ofrecen, es por ello que esta tesis propone una solución tecnológica que consiste en el diseño de una arquitectura global que integra tecnologías Fog Computing (FC), OVA (Organizaciones Virtuales de Agentes) y sistemas CBR (Case-Based Reasoning) que permita su implementación en entornos bancarios.
La arquitectura propuesta en esta investigación se denomina FOBA (Fog Oriented Banking Architecture) y propone mejorar aspectos de los servicios de atención al cliente de una entidad bancaria, especialmente, conseguir una mayor seguridad, mayor transparencia y agilidad de los procesos, así como reducir los costes de gestión de la entidad. La arquitectura presentada incluye nodos de niebla donde los datos son procesados por agentes inteligentes ligeros que permiten la implementación de sistemas de recomendación.
En el documento de tesis se presenta la descripción conceptual y técnica de la arquitectura propuesta, así como el componente experimental del estudio, que consistió en el desarrollo de dos herramientas de recomendación: la primera herramienta diseñada y desarrollada fue la creación del CBR denominado CEBRA (CasE-Based Reasoning Application), como resultado de la investigación se presenta el sistema de recomendación, incluyendo el algoritmo de recomendación y una interfaz REST (REpresentational State Transfer) para su uso. Las recomendaciones que realizan se basan en el perfil del usuario y/o en conocimientos adicionales como la información contextual del usuario. La segunda herramienta diseñada y desarrollada es un sistema recomendador del que se obtienen señales de compra/venta a partir de los resultados de los análisis técnicos y de las previsiones realizadas para empresas que operan en el mercado continuo español. Tiene un diseño modular para facilitar la escalabilidad del modelo y la mejora de las funcionalidades.
2021-01-01T00:00:00ZCaracterización de entornos de aprendizaje basados en robótica en el ámbito preuniversitario de Iberoamérica y España
http://hdl.handle.net/10366/145797
[ES] En la última década se aprecia un aumento en la variedad de recursos para hacer Robótica Educativa (RE) desde edades tempranas. Esto ha permitido acercar la robótica a múltiples entornos de aprendizaje, tanto escolares como
extraescolares; facilitando alcanzar distintos objetivos de aprendizaje mediante una gama de actividades: talleres, campamentos de verano, exposiciones, ferias científicas y tecnológicas, torneos, etc.
Los resultados del estudio revelaron 19 modelos de árboles de segmentación jerárquica con los principales predictores del rendimiento académico. Los tres principales son: si el docente siempre, como finalidad de uso de la evaluación, regula el aprendizaje de los estudiantes, si le requiere al estudiante realizar siempre actividades expresivas prácticas y si siempre hace que esté presente el atributo tecnológico como una de las características del entorno de aprendizaje.
El trabajo concluye destacando el rol que el docente desempeña en el proceso de enseñanza-aprendizaje y la importancia de dedicar el tiempo suficiente a la planificación didáctica, cualquiera que sea la plataforma de RE seleccionada, involucrando la mayor cantidad de estos predictores encontrados para aumentar la probabilidad de que los alumnos mejoren el rendimiento académico.
[EN] In the last decade an important increase in the variety of resources to use Educational Robotics (ER) at several stages including early ages, has been observed. This fact has let bringing robotics topics closer to diverse learning environments, at the school and out of the classroom, so the achievement of the different learning objectives is reached through a range of activities: workshops, summer camps, exhibitions, science and technology fairs, tournaments, etc.
As one of the main results of this study 19 hierarchical segmentation tree models have been discovered where the main predictor variables of academic performance are determined. In this way, the three main predictors are: if the teacher always regulates students learning process as an evaluation task goal, if the student is always required to perform practical expressive activities, and, finally if the teacher requires the technological attribute to be always present as characteristic of the learning environment.
The work concludes with the fact the teacher role is strongly highlighted at the teaching learning process, in such a way that it is quite important to designate enough time effort to didactical planning, whatever the ER selected platform be. In addition, it is concluded how a greater amount of the predictors designated lets to an increase of the probability that students enhanced the
academic performance.
2021-03-05T00:00:00Z