jarca 2014 - Universidad de Sevilla

Transcription

jarca 2014 - Universidad de Sevilla
 JARCA 2014 Actas de las XVI Jornadas de ARCA Sistemas Cualitativos y sus Aplicaciones en Diagnosis, Robótica e Inteligencia Ambiental Cádiz 22-­‐28 de junio de 2014 Alejandro Fernández-­‐Montes Juan Antonio Álvarez Juan Antonio Ortega XVI Jornadas de ARCA
XVI Jornadas de ARCA
XVI Jornadas de ARCA
i
Actas de las XVI Jornadas de ARCA
Sistemas Cualitativos y sus Aplicaciones en Diagnosis, Robótica e Inteligencia
Ambiental
Proceedings of the XVI ARCA Days
Qualitative Systems and its Applications in Diagnose, Robotics and Ambient
Intelligence
Editado por / Edited by
Alejandro Fernández-Montes
Departamento de Lenguajes y Sistemas Informáticos
Universidad de Sevilla, España
Juan Antonio Álvarez
Departamento de Lenguajes y Sistemas Informáticos
Universidad de Sevilla, España
y / and
Juan Antonio Ortega
Departamento de Lenguajes y Sistemas Informáticos
Universidad de Sevilla, España
ii Actas de las XVI Jornadas de ARCA. Sistemas Cualitativos y sus Aplicaciones en
Diagnosis, Robótica e Inteligencia Ambiental / Alejandro Fernández-Montes, Juan
Antonio Álvarez, Juan Antonio Ortega.
ISBN: 978-84-606-6085-9
I.
II.
III.
Alejandro Fernández-Montes
Juan Antonio Álvarez
Juan Antonio Ortega.
Edita:
© Derechos de autor
De los textos: los autores correspondientes
De las ilustraciones: los autores correspondientes
De esta edición: Alejandro Fernández-Montes, Juan Antonio Álvarez, Juan Antonio
Ortega.
Junio 2014.
ISBN: 978-84-606-6085-9
No está permitida la reproducción total o parcial de este libro, ni su transmisión de
ninguna forma o por cualquier medio, ya sea electrónico, por registro u otros métodos
sin el permiso previo y por escrito de los titulares del copyright.
iii
Director de las Jornadas
Juan Antonio Ortega, Universidad de Sevilla
Comité Organizador
Alejandro Fernández-Montes, Universidad de Sevilla
Juan Antonio Álvarez, Universidad de Sevilla
Comité de programa
Núria Agell, Universidad Ramon Llull
Cecilio Angulo, Universitat Politécnica de Catalunya
Joaquim Armengol, Universitat de Girona
Andreu Català, Universitat Politécnica de Catalunya
Zoe Falomir, Universität Bremen
Alejandro Fernández-Montes, Universidad de Sevilla
Luis González, Universidad de Sevilla
Natividad Martínez, Reutlingen University
Quim Meléndez, Universitat de Girona
Lledó Museros, Universitat Jaume I
Juan Antonio Ortega, Universidad de Sevilla
Francisco Ruiz, Universitat Politécnica de Catalunya
Ismael Sanz, Universitat Jaume I
Ralf Seepold, Universität Konstanz
Miguel Toro, Universidad de Sevilla
Jesús Torres, Universidad de Sevilla
Josep Vehí, Universitat de Girona
Francisco Velasco, Universidad de Sevilla
Juan Antonio Álvarez García, Universidad de Sevilla
XVI Jornadas de ARCA
iv
Preface
This volume contains the papers presented at JARCA 2014: XVI Jornadas de ARCA
Sistemas Cualitativos y sus Aplicaciones en Diagnosis, Robótica e Inteligencia
Ambiental held on June 22-28, 2014 in Cadiz.
There were 20 accepted papers. Each submission was reviewed by at least 3, and on the
average 2.2, program committee members.
This proceedings are partially supported by the projects of the Spanish Ministry of
Economy and Competitiveness HERMES (TIN2013-46801-C4-1-R) and Simon(TIC8052) of the Andalusian Regional Ministry of Economy, Innovation and Science and
with the cooperation of Fidetia (Fundación para la Investigación y el Desarrollo de las
Tecnologías de la Información en Andalucía).
Easychair was used to manage paper submissions, reviewing and generating the
proceedings.
Cádiz, junio de 2014
Alejandro Fernández-Montes
Juan Antonio Álvarez
Juan Antonio Ortega
Ediciones Anteriores
Sevilla 1998
Sevilla 2000
Valladolid 2001
Vilanova i la Geltrú 2002
Lanzarote 2003
Menorca 2004
Benalmádena 2005
Peñíscola y Castellón de la Plana 2006
Girona 2007
Tenerife 2008
Granada 2009
Mallorca 2010
Huelva 2011
Salou 2012
Murcia 2013
v
XVI Jornadas de ARCA
vi
XVI Jornadas de ARCA
Index
Generación de dataset flexible para de reconocimiento de actividades y caı́das . . . . . . . . . . . .
1
Juan Antonio Álvarez-Garcı́a, Luis Miguel Soria Morillo and Miguel Ángel Álvarez de
La Concepción
La Nube y su Papel como Plataforma de Distribución de Contenidos de TV . . . . . . . . . . . . . .
Iván Bernabé-Sánchez, Daniel Dı́az-Sánchez and Mario Muñoz-Organero
5
Los Sistemas Sanitarios Autonómicos de España: Un estudio de la eficiencia operacional,
eficiencia sanitaria y eficiencia unificada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
Marı́a Soledad Campos Lucena, M Teresa Sanz Dı́az, Francisco Velasco Morente and
Rocı́o Yñiguez Ovando
Un análisis de la eficiencia de la UE 27 a través de la huella de carbono con DEA. . . . . . . . . 47
Marı́a Soledad Campos Lucena, M Teresa Sanz Dı́az, Francisco Velasco Morente and
Rocı́o Yñiguez Ovando
Eco-driving: Energy Saving based on driver behavior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
Vı́ctor Corcoba Magaña and Mario Muñoz-Organero
La formación a través de dispositivos móviles. Diseño y evaluación de contenidos y
actividades formativas a través de m-learning. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
Alfonso Cueto, Luis Miguel Soria Morillo and Juan Antonio Álvarez-Garcı́a
Towards a Fuzzy Colour Model Sensitive to the Context . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
Zoe Falomir, Vivien Mast, Daniel Vale, Lledó Museros and Luis González-Abril
Es eficiente apagar máquinas en un centro de datos?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
Damián Fernández, Alejandro Fernández-Montes, Luis González-Abril and Juan
Antonio Ortega
Introducción de una nueva caracteristica en el modelo Qualitative Shape . . . . . . . . . . . . . . . . . 69
Luis González-Abril, Lledó Museros, Zoe Falomir and Ismael Sanz
Conectando el Robot AIBO a ROS: Extracción de imágenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
Lucı́a Lillo-Fantova, Ricardo A. Téllez, Manel Velasco and Cecilio Angulo
Qualitative Simulation of a Sentiment Analysis Theory . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
Ismael Sanz, Lledó Museros and Luis González-Abril
Sincronización de Robots Aibo. Un Estudio Comparativo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
Diego Muñoz, Manel Velasco and Cecilio Angulo
Ideas para la aplicación de la optimización por colonia de hormigas al desarrollo
sostenible y eficiencia energética . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
José Manuel Márquez Vázquez, Juan Antonio Ortega, Luis González-Abril and
Francisco Velasco Morente
Creativity Support System for cake design. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
Francisco J. Ruiz, Cristóbal Raya, Albert Samà and Nuria Agell
Equilibrio del Robot Aibo usando DMPs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
Lluı́s Salord, Cecilio Angulo and Manel Velasco
vii
XVI Jornadas de ARCA
Brain-physical activity mapping using low cost EEG sensors . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
Luis Miguel Soria Morillo, Juan Antonio Álvarez-Garcı́a, Ismael Cuadrado-Cordero
and Juan Antonio Ortega
Mejorando la interoperabilidad en la Smart City: generación automática de servicios web . 115
José Ignacio Sánchez Venzalá, Alejandro Fernández-Montes and Juan Antonio Ortega
A multidimensional perspective to recommend experts. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
Germán Sánchez-Hernández and Nuria Agell
Incorporating biomedical knowledge into m-Health applications: An example
public-private partnership . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
Josep Vehi and Remei Calm
Using an improved rule match algorithm for the detection of broken driving rules in an
energy-efficient and safety relevant driving system . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
Emre Yay, Natividad Martı́nez Madrid and Juan Antonio Ortega
viii
XVI Jornadas de ARCA
ix
XVI Jornadas de ARCA
x
1
Generación de dataset flexible para de reconocimiento de actividades y
caídas
Juan A. Álvarez-García, Luis M. Soria Morillo, Miguel Á. Álvarez de la Concepción
University of Seville
Computer Languages and Systems Dept.
Avenida Reina Mercedes S/N, 41012
{jaalvarez, lsoria, maalvarez}@us.es
Abstract
El reconocimiento de actividades (RA) y la detección de caídas (DC) son áreas de investigación que
evolucionan de manera aislada en vez de en conjunto. La evaluación del software que lo permite
depende tanto del hardware utilizado como del tipo
de caídas y actividades evaluadas provocando múltiples datasets heterogéneos. Además en DC el
problema se agrava por no existir datasets de caídas reales, no simuladas, públicos. En este trabajo
se plantea una herramienta para recuperar datos y
generar un dataset abierto a la comunidad tanto para su acceso como para la inserción de nuevos datos.
1 Introduction
Las tendencias demográficas en nuestra sociedad están
llevando al envejecimiento de la población tanto en los
países desarrollados como en los del tercer mundo y en vías
de desarrollo. Según la UNFPA [5] aunque actualmente sólo
Japón tiene una proporción de mayores de 65 años superior
al 30%, en 2050 habrá 64 países que lo acompañen. Eso ha
supuesto que se fomenten programas de investigación orientados a las tecnologías de la información para el mejorar la
calidad de vida y permitir la vida independiente de mayores
y personas con algún tipo de discapacidad [1].
Para conseguir ese objetivo existen dos áreas importantes, el
reconocimiento de actividades (RA) y la detección de caídas
(DC).
El RA tiene como objetivo reconocer actividades humanas
que pueden ser básicas (tumbado, sentado, de pié, etc.) o
complejas (viendo la televisión, cocinando, duchándose,
etc.). Recuperar la secuencia de actividades realizadas así
como el tiempo dedicado a cada una de ellas permitiría
ofrecer a personas mayores que viven solas ayuda robótica,
informes detallados a familiares o doctores sobre ejercicios
de rehabilitación o prevención o consejos personales para
llegar a objetivos saludables físicos (cierto número de pasos
al día) o de organización (debes ver algo menos la televisión
o recuerda ir a comprar al supermercado).
La DC puede definirse como una tecnología asistencial cuyo
objetivo es el de alertar cuando ocurre una caída. En un
escenario real puede mitigar sus consecuencias. Tiene un
impacto directo sobre el miedo a las caídas ya que permite
una rápida asistencia. Los individuos que caen desarrollan
un temor además de una reducción de la actividad física,
depresiones y reducción de la actividad social y todo esto
puede incrementar a su vez el riesgo de que se produzcan
más caídas [6]. A pesar de que las caídas son un gran problema en la salud pública y que el número de sistemas de
DC ha aumentado mucho, según la organización mundial de
la salud [8] el número de caídas se incrementa año tras año.
Si no se toman medidas el número de lesiones provocadas
por caídas se proyectan a un 100% mayor en 2030. En este
contexto los dispositivos asistenciales son una necesidad
social y están siendo investigados de manera activa.
El resto del artículo se organiza de la siguiente manera: la
Sección 2 muestra como los sistemas de RA están siendo
evaluados y comparados entre sí, la Sección 3 hace lo propio con los sistemas DC. La herramienta propuesta para
generar un dataset flexible y mantenido por la comunidad
científica se presenta en la Sección 4 y en el último apartado
se indican las conclusiones.
2
Evaluación de RA
El RA utilizando sensores vestibles [9] permite la monitorización de ejercicios y actividades o incluso la detección de
comportamiento anómalo.
Desde el punto de vista de datasets, el RA es un área madura, existen múltiples datasets en el repositorio de UCI. Sin
embargo, la variabilidad en el uso de hardware y sobre todo
en la posición de los sensores hace que no todos los datasets
sean válidos para todos los sistemas propuestos y la comparación entre diferentes sistemas no sea posible. Existen dos
líneas para intentar solventarlo:
• Competiciones basadas en software con un elevado
número de sensores tal y como se hizo en
OPPORTUNITY [10]. Aún con esa cantidad de
hardware, no todos los sistemas utilizan ese mismo
hardware con lo que lo que se pueden validar son los
algoritmos pero no los sistemas completos.
•
Competiciones basadas en software y hardware, de tipo presencial donde lo fundamental es el objetivo final. Estas competiciones como EvAAL (Evaluating
AAL Systems through Competitive Benchmarking)
2
[2]. Aunque los sistemas pueden compararse, es difícil conseguir un número elevado de competidores por
los costes que acarrea el desplazamiento de personas y
hardware.
3 Evaluación de DC
En el área de DC los datasets son un problema importante
ya que no existen datasets públicos con información de
caídas reales. Aún así aquellos que contienen caídas simuladas también escasean. Según Schwickert et al. [7] de los 96
estudios que analizan desde 1998 a 2012, sólo 6 incorporan
caídas reales.
Las cuestiones de privacidad y el análisis de la DC desde un
punto de vista biomédico provocan esta falta de datasets.
Además según el trabajo de Bagalà et al. [3] los algoritmos
publicados que son testados con caídas simuladas tienen una
sensibilidad y especificidad mucho mejores que cuando se
hacen con caídas reales.
4 Herramienta propuesta
Las dificultades que suponen acceder a un grupo de alto
riesgo de caídas, informar desde un punto de vista médico
de los resultados (protocolo admitido por un comité ético
manteniendo la privacidad del paciente y que este firme un
consentimiento informado) y conseguir un dataset con un
número elevado de caídas nos llevó a plantear un dataset de
RA y DC, abierto a la comunidad y mantenido por la misma. Para ello tenemos un trabajo en progreso en el que estamos diseñando una herramienta que permite la recuperación de información de los sensores inerciales de dispositivos móviles Android (giroscopio, acelerómetro, magnetómetro) con la restricción de que estos dispositivos tengan
conexión bluetooth. Estos móviles servirán de sensores
vestibles y enviarán toda la información a otro móvil que
sincronizará tramas de ambos y subirá la información al
dataset. Además estamos considerando la posibilidad de
incluir vídeo de grabación que permita el etiquetado posterior de las actividades o tipos de caídas que se hayan producido, aunque esto supondrá seguramente problemas de privacidad. La Figura 1 muestra de forma esquemática el proceso.
Ese proceso permitirá que diferentes investigadores puedan
seguir un proceso sencillo y fácilmente replicable de sus
experiencias para incorporar los datos al dataset. Además la
interfaz Web permitirá que los investigadores seleccionen
las restricciones que se deseen con respecto a la posición de
los sensores o la frecuencia de muestreo para testar sus
algoritmos antes de implementar el sistema hardware completo. Un ejemplo puede ser la descarga de un dataset personalizado con datos de sensores en la rodilla y la cabeza
con una frecuencia de muestreo de 20 Hertzios.
Ilustración 1: Esquema de la herramienta de recuperación de datos y subida al dataset
5
Conclusiones
Las dificultades que suponen la evaluación combinada de
RA y DC nos hizo plantearnos una herramienta que permitiese generar un dataset que pudiese ser mantenido por la
comunidad científica. Las mayores dificultades para tener
éxito son la sencillez de uso de una herramienta que permitiese subir la información a un repositorio Web y las restricciones de hardware. Para solventar la primera se ha desarrollado un prototipo que estamos probando actualmente, el
segundo obstáculo lo intentamos superar incluyendo como
hardware los dispositivos más vendidos de la electrónica de
consumo, móviles con sistema operativo Android.
Una vez la fase de test de la herramienta se supere nos encontraremos con otras dificultades como el etiquetado semiautomático de las actividades y caídas para mejorar la usabilidad de la herramienta, la posibilidad de incluir un vídeo de
la persona monitorizada y la preparación de un consentimiento informado en la aplicación para aquellos investigadores y personas que participen.
Agradecimientos
Este trabajo ha sido parcialmente financiado por el proyecto
de Excelencia de la Junta de Andalucía SIMON (TIC-8052)
y por el proyecto del Ministerio HERMES (TIN201346801-C)
Referencias
1.
2.
3.
AAL Joint Programme. Catalogue for Projects 2013. Retrieved
May 4, 2014, from AAL-Europe: http://www.aal-europe.eu/wpcontent/uploads/2013/09/AALCatalogue2013_Final.pdf
Álvarez-García, J. A., Barsocchi, P., Chessa, S., & Salvi, D.
(2013). Evaluation of localization and activity recognition systems for ambient assisted living: The experience of the 2012
EvAAL competition. Journal of Ambient Intelligence and Smart
Environments, 5(1), 119-132.
Bagalà F, Becker C, Cappello A, Chiari L, Aminian K, et al.
(2012) Evaluation of Accelerometer-Based Fall Detection Algorithms on Real-World Falls. PLoS ONE 7(5): e37062.
doi:10.1371/journal.pone.0037062
3
4.
Bourke, A. K., Van de Ven, P., Gamble, M., O’Connor, R.,
Murphy, K., Bogan, E., ... & Nelson, J. (2010). Evaluation of
waist-mounted tri-axial accelerometer based fall-detection algorithms during scripted and continuous unscripted activities.
Journal of biomechanics, 43(15), 3051-3057.
5. United Nations Population Fund and Help Age International.
(2012). Ageing in the twenty-first century: a celebration and a
challenge.
6. Legters, K. (2002). Fear of falling. Physical therapy, 82(3), 264272.
7. Schwickert, L., Becker, C., Lindemann, U., Maréchal, C.,
Bourke, A., Chiari, L., ... & Klenk, J. (2013). Fall detection with
body-worn sensors. Zeitschrift für Gerontologie und Geriatrie,
46(8), 706-719.
8. World Health Organization. Ageing, & Life Course Unit. (2008).
WHO global report on falls prevention in older age. World
Health Organization.
9. Lara, O. D., & Labrador, M. A. (2013). A survey on human activity recognition using wearable sensors. Communications Surveys & Tutorials, IEEE, 15(3), 1192-1209.
10. Roggen, D.; Calatroni, A.; Rossi, M.; Holleczek, T.; Forster, K.;
Troster, G.; Lukowicz, P.; Bannach, D.; Pirkl, G.; Ferscha, A.;
Doppler, J.; Holzmann, C.; Kurz, M.; Holl, G.; Chavarriaga, R.;
Sagha, H.; Bayati, H.; Creatura, M.; del R Millan, J., "Collecting complex activity datasets in highly rich networked sensor
environments," Networked Sensing Systems (INSS), 2010 Seventh International Conference on , vol., no., pp.233,240, 15-18
June 2010
XVI Jornadas de ARCA
4
5
!
0
" #$
% #!
" #$ &
& ' #( )
0
'
$$$ /
"
.
12 34566 ! 7 8 , +/ .9$.- ,% $8
:
;<
1
"#
.
(
$/,
!
"#
$%
!
&
"#
"#
)
'
&
(
'
&
&
(
&
+
- "
!
"#
)
)
"#
+,
!
"#
&
)
"
"#
)
"#
*
+,
.
"#
"#
"# ,
$%
6
(
&
3
"#
&
"#
1
"#
=
>
"#
@
$%
&
(
?
A
)
*
%
%
+
- D
.
)
)
B
&
(
%
7
@
/
$
)
)
%'
$
!
)
,
"#
@
@
/
"# ,
$
&
(
&
+
?4C
,
(
+
3261
A?C
-
&
)
E
!
E
!
!
"#
!
&
E
7
&
J
H% K
3261I
)
H% K
3261I
!
35C
J
%
(
)
!
H
E
0
3263I
H
E
3266I
)
!
"#
# .
0
.
)
/
)
$
0
.
(
&
)
"#
E
.
&
FG
+
HF
-
3263I
"#
$%
"#
"#
0
3261I
HL
.
"#
,
,
HG
3263I
(
#/
"#
H8 3263I
*
)
8
(
#
N"
H!
%
0",
'
'
3263I
(
$%"#
'
,
D
D
"
'
8 E K +''D8-
+,"DH#
K
1
3263I
0
'
0
F
+
&
"#
,
)
&
0
9
"#
'
FG
+,"D
&
HM
&
3266I
(
%
J
&
H7
HM
3263I
3261I
3266I HF
3266I
.
H/
HD
3263I
.
)
"#
!
+
)
- !
)
(
(
!
8
.
G,
8
)
!
9
'
0
(
55C
+,! '
+
F
'
)
,
'
)
.
,!
)
!
)
!
"
OF 9/ , ,/ 9" .9$# 9O
"$83261 =?426 '= 3 9
%
8
$P.P$
/
'
)
(
/
'
+
@
.
+@ . 9-- $9 8 +%" 3263 621? 1A2222- 'J/$88
+$%" 3263 2441 =122229 / .$,, +$%" 3263
2443 =12222$88% '"J
)
@
)
%$
%$
H
E
K
#
2
!
"#
'
,
)
H
3266I #
9 R
S
'
GM,F%,- 3266 $
?1AU?=6
E 3263I #
R
M 9
K
SJ
E
M 9
$%"#
G K
'
E
Q '
K
# 7
#
T
'
+$8@J'J/
3266
# 7
K
#
#
9
$%"#
T
'
,
8 E K +'J/,8 ",- 3263 @
$
'
3263
6U62
HD
3266I R D
J D
D 7
S"#
D
B
E
$
"#
T
/
"
+' /"- 3266 6= $"7 '
3266
6U>
10
H7
HF
HF
HM
HM
H!
3266I M , 7
, 8
' "
D '
% ,
7 ,
K
S '
D
,
%
/
9
T 8
7
/
,
"
+87/ ,"3266 > $
'
3266
65U3=
3263I 8 F
F @
E /
/
K 9 *
K
, 8
S$
"#
T
8 E KD
$
,
+8D ,- 3263 6> $
'
3263
4A1U4A4
3263I M F
S"
@
'
D
T %
$
622
6156U615= 3263
3266I $ M
/ M
7 / K
" /
/ #
S'
,
F
"
T 3266
3263I R M
' FE
% K
* !
S
$%"#
E / 9
T
'
"
+$' '"3263 6= $
'
3263
6655U632=
3263I M F !
. F M
7 " D K
SG
#
$%"#T 3263
H/
3261I # /
. ,
D
+$'' D
"
$
125
H8 3263I G 8
, / K
/ L D
. ,
S'
E K
T
'
VV
- 3261 $'' D
3261 $
'
3261
12AU
Q %
S'
T
'
3263
H% K
'
D
3263 $
$
'
,
1A3U1A>
3261I 9 % K
, !
. 7
S,
'
'
"
$
B ,
T $
'
'
,
8 E K
"
3261
H# K
3263I / # K
8 "
" /
# /
S
="#B
."#
T
'
+$'' - 3263 $
$
'
3263
=1AU=14
HG 3263I * G L L
' G L !
@ '
!
S'
/ #B '
/
,
"# T
3263
HL
7 J
3261I / L
S'
F "#
$ "
/
$
E K
T
D
,
D
+D/,D3261
/
3261 $
6U?
,
$
11
LOS SISTEMAS SANITARIOS AUTONÓMICOS DE ESPAÑA: UN ESTUDIO
DE LA EFICIENCIA OPERACIONAL, EFICIENCIA SANITARIA Y
EFICIENCIA UNIFICADA
Campos Lucena, María Soledad
Departamento de Contabilidad y Economía Financiera
mscampos@us.es
Sanz Díaz, Mª Teresa
Departamento de Análisis Económico y Economía Política
mtsanz@us.es
Velasco Morente, Francisco
Departamento de Economía Aplicada I
velasco@us.es
Yñiguez Ovando, Rocío
Departamento de Análisis Económico y Economía Política
ovando@us.es
Universidad de Sevilla
RESUMEN
El estudio de la eficiencia en la gestión de los recursos públicos en general y de los
recursos invertidos en sanidad en particular es de sumo interés para el desarrollo de las
políticas económicas de un país en cualquier momento, pero se hace más acuciante en
momentos de crisis como los actuales, donde los recursos son si cabe aún más escasos y
la intervención pública se pone en entredicho. Este trabajo realiza un análisis de la
eficiencia de dicha gestión a través de la técnica DEA y utiliza un enfoque no orientado,
en el que se persigue alcanzar la eficiencia a través del incremento de las variables
consideradas deseables (good) para lo que se utiliza la eficiencia operacional, la
disminución de las variables no deseables (bad) para lo que se utiliza la eficiencia
sanitaria y pone en relación ambas eficiencias a través de la llamada eficiencia unificada
que plantea la existencia de dos fronteras hacia donde deben tender las unidades
ineficientes. La aportación fundamental que se hace con este trabajo, se basa explicar la
relación que existe entre la mejora de ineficiencias operacional y sanitaria cuando el
estudio se hace de forma unificada. Se establecen cuatro niveles de relación entre los
diferentes tipos de eficiencias e ineficiencias de las organizaciones que dan lugar a los
ajustes necesarios para situar las entidades en las fronteras marcadas por las funciones
de producción de las entidades eficientes.
Palabras Clave: Sistema sanitario, eficiencia operacional, eficiencia sanitaria,
eficiencia unificada.
1. INTRODUCCIÓN
Tras la gestión de los recursos públicos subyace un sistema organizativo que se basa en
el carácter limitativo de los recursos. Las necesidades que puede satisfacer el sector
público pueden llegar a ser ilimitadas, no así lo son los recursos con los que cuenta para
llevarlas a cabo, por lo que debe modular su uso en función de unos criterios de
1
12
priorización de necesidades y gestionar los recursos con los que cuenta de la forma más
eficaz y eficiente que le sea posible.
Desde la llegada de la democracia a España en 1976, este país sufrió una transformación
radical en su desarrollo económico, político y social. Dentro de esa transformación, se
puede encuadrar la priorización en la prestación de determinados servicios considerados
básicos para el desarrollo equilibrado de una sociedad desarrollada. Entre esos servicios
se encuentran la sanidad y la educación, para cuyo desarrollo, se utilizó la propia
división territorial y política por la que se optó para el buen desarrollo del proyecto
democrático de país que salió de la transición española.
Este modelo territorial divide España en diecisiete Comunidades Autónomas (en
adelante CA), y dos Ciudades Autónomas. Como podemos observar en el Mapa I de las
diecisiete CAs quince se encuentra en la Península Ibérica y dos son archipiélagos. Uno
de ellos, a pesar de que se muestre por cuestiones de espacio en la esquina inferior
derecha del mapa, realmente se encuentra en el Océano Atlántico, próximo a las costas
africanas, frente a Marruecos y el Sahara Occidental. Las dos ciudades autónomas se
encuentran en el norte de África.
Estas autonomías han asumido de forma paulatina, en unos casos a más velocidad que
otras, numerosas funciones que tradicionalmente asumía de forma centralizada el
estado, entre ellas las relativas a la salud, por entender que la cercanía a los ciudadanos
mejora el conocimiento de sus necesidades y la gestión directa que debe realizar de los
recursos. Cada CA tiene su propio servicio de salud, el cual gestiona los recursos
destinados a sanidad de forma autónoma, de la forma que cree más conveniente en aras
a la consecución de sus objetivos.
Esta descentralización está siendo cuestionada en estos momentos de crisis, entre un
sector que defiende que los recursos se utilizan de forma más eficiente si se centralizan,
ya que de otra forma el sistema se vuelve insostenible desde el punto de vista
económico, y otro sector que defiende que los servicios se prestan mejor desde la
cercanía a los ciudadanos, lo que permite un mejor conocimiento de las necesidades de
los mismos, repercute en la equidad del acceso a los servicios públicos y reduce las
desigualdades sociales.
2
13
Mapa I: División territorial de España: Comunidades y Ciudades Autónomas.
El objetivo que persigue este trabajo es estudiar la eficiencia de los servicios sanitarios
autonómicos en España, a través de la gestión de los recursos públicos invertidos en
ellos por habitante protegido, fundamentalmente con el uso que hace de ellos bien a
través de conciertos con empresas privadas, de formación de personal residente o de la
propia atención directa que realiza a los usuarios del servicio sanitario, este último
compuesto por el gasto de farmacéutico, la remuneración del personal y los consumos
intermedios, necesarios para prestar el servicio sanitario correspondiente, y como
repercute todo ello en la esperanza de vida al nacer y en la tasa de mortalidad general
ajustada por edad, por cada 100.000 habitantes. La elección de estas variables inputs se
debe a los importantes debates abiertos en la actualidad sobre la conveniencia o no de
externalizar o privatizar los servicios, así como sobre la necesidad de invertir en
formación e investigación, en una época de crisis como la actual.
El uso eficiente de los recursos en general y de los recursos públicos en particular, debe
ser una de las premisas básicas en economía, donde los bienes son escasos y
susceptibles de usos alternativos. El estudio de la eficiencia según González et al (2010)
puede llevarse a cabo desde dos perspectivas distintas: a) utilizando indicadores de
gestión basados en el análisis de ratios, lo que puede llevar a resultados contradictorios
en función de los indicadores utilizados (Smith y Goddard, 2003) y b) utilizando índices
globales de eficiencia que miden las distancias de las unidades analizadas a la frontera
de producción marcada por las unidades eficientes en función de los recursos utilizados
y los resultados obtenidos.
Dentro de esta última perspectiva se encuentra el Análisis Envolvente de Datos (DEA),
modelo que está considerado como un buen sistema de medición de la eficiencia del
sector público (Lowell y Muñiz, 2003), y que cuenta con la ventaja de poder incluir en
el estudio varias variables inputs y/o outputs. Este modelo surgió como extensión del
trabajo de Farrel (1957) en el que se muestra una medida de la eficiencia productiva y
su cálculo (Coelli, 1996, Coll y Blasco, 2006 y Cooper et al., 2007).
La aplicación del DEA proporciona las distancias de las unidades ineficientes hasta la
frontera marcada por las funciones de producción de las unidades eficientes.
3
14
Habitualmente, la técnica de análisis DEA precisa una orientación hacia las variables
controladas, ya sean los inputs o los outputs, lo que da lugar a los modelos inputs-orientado
u output-orientado (Ramanathan 2003), al entender que las medidas correctoras que se
proponen por el modelo deben aplicarse sobre las variables controladas, aunque es habitual
que se recomienden ajustes tendentes a influir sobre las variables no controladas.
Recientemente, los estudios que aplican la técnica DEA, para medir la eficiencia de los
sistemas de producción, están optando por la aplicación de un modelo DEA no orientado,
donde la distinción se realiza en función de las variables inputs u outputs consideradas
deseables (good) o no-deseables (bad) (Sueyoshi y Goto, 2011).
Tras esta introducción se ha llevado a cabo una exposición del DEA, como técnica de
estudio de las eficiencias de un grupo de organizaciones a la hora de evaluar el uso de los
recursos utilizados para conseguir unos niveles adecuados de resultados. Este análisis se
desglosa en el estudio de la técnica en general y posteriormente se analizan los diferentes
tipos de eficiencia operacional, sanitaria y unificada. A continuación se realiza una
descripción de la metodología y de los datos utilizados, y se lleva a cabo una aplicación
práctica del estudio de las eficiencias de los sistemas sanitarios de las CAs en. Por último se
extraen una serie de conclusiones a partir de la aplicación práctica del modelo.
2. DESCRIPCIÓN DE LOS DATOS Y METODOLOGÍA
Una revisión de la literatura reciente, muestra el estudio de la eficiencia en el uso de los
recursos por parte de las organizaciones a través a través del DEA (Campos y Velasco,
2013; González et al, 2010). Esta aplicación tradicional del estudio de la eficiencia,
enfoca el análisis hacia una orientación input u output en función de las variables sobre
las que la organización tenga capacidad de influencia, de forma que se utiliza un modelo
input-orientado cuando las variables controladas sean los inputs, u output-orientado
cuando las variables controladas sean los outputs. Para ello se puede aplicar el
procedimiento multietápico de Coelli (1996, 1998), que generaliza otros
procedimientos, tales como el bietápico (Alí y Seiford, 1993) y el método en tres etapas
(Cooper et al., 2007) y que se adecua a la eficiencia de Koopmans (1951).
Recientemente, el estudio de la eficiencia ha dado un paso más, al diferenciar entre
aquellas variables que sean deseables o recomendables (good), y aquellas que son nodeseables o no-recomendables (bad), en definitiva diferencia aquellas cuyo incremento
mejora la eficiencia de otras que actúan justo al contrario, la mejora de la eficiencia se
produce cuando se reduce su uso en el caso de los inputs o producción en el caso de los
outputs (Sueyoshi and Goto, 2011).
A través de este tipo de estudio se calculan tres tipos de eficiencia. La primera asociada
a las variables deseables. Se trata de la llamada eficiencia operacional y está relacionada
con la estructura operativa de las organizaciones. La segunda de las eficiencias, está
relacionada con las variables no-deseables, es la llamada eficiencia sanitaria, y marca el
efecto del entorno sobre el uso eficiente de los recursos. En estos dos casos, se
considera que ambas eficiencias son independientes, de forma que sólo se estudia la
variabilidad o influencia que pueda tener la organización sobre las variables deseables
en el primer caso o no-deseables en el segundo. La tercera de las eficiencias es la
eficiencia unificada, que realiza un estudio conjunto de ambas eficiencias, y nos
proporciona un análisis global del uso de los recursos por parte de las organizaciones.
En este último tipo de eficiencia, se parte de la idea de que cuando una organización
utiliza unos recursos, produce tanto outputs deseables (good) como outputs nodeseables (bad), por lo que para mejorar la eficiencia tiene que incrementar los primeros
y disminuir los segundos a la vez que mantiene, disminuye o incluso incrementa los
4
15
inputs. Por ello, en este último caso, se establecen dos fronteras marcadas por las
funciones de producción de las entidades eficientes, una superior a la que deben tender
los inputs y los outputs deseables, y otra inferior a la que deben tender los inputs y los
outputs no-deseables.
En este trabajo, se realiza un análisis de la eficiencia del uso de los recursos públicos
sanitarios que gestionan los servicios sanitarios de las Comunidades y Ciudades
Autónomas de España, y su efecto sobre la vida de los ciudadanos. Para ello, se ha
utilizado la base de datos de Indicadores Clave del Sistema Nacional de Salud
(INCLASNS, 2012) publicados por el Ministerio de Sanidad Servicios Sociales e
Igualdad del Gobierno de España.
Como dijimos al principio, las necesidades de los ciudadanos pueden llegar a ser
ilimitadas, sin embargo, la disponibilidad presupuestaria limita los servicios que las
administraciones públicas pueden suministrar a la hora de cumplir con la función social
que se les tenga encomendada. La gestión pública, a diferencia de la gestión
empresarial, parte del volumen de recursos con los que cuenta y decide en que, y para
que, van a ser utilizados (en el caso de las empresas se parte de una demanda del
mercado y en base a ella se estipulan los gastos en los que hay que incurrir para
satisfacerla).
Por todo lo anterior, se han utilizado como variables Inputs, en primer lugar el gasto
sanitario público territorializado por habitante protegido (Input 1), así como el uso que
se decide hacer de esos recursos al considerar qué parte de dichos recursos se destina a
conciertos con empresas privadas (Input 2), qué parte a formación de residentes (Input
3) y qué parte a la atención pública directa a los ciudadanos (Input 4), donde se incluyen
tanto el gasto farmacéutico, las remuneraciones de personal y los consumos intermedios
como principales componentes que absorben la inversión sanitaria que se hace por parte
de la administración pública en los ciudadanos. Como variables Outputs se han utilizado
dos indicadores reconocidos como de calidad por la Organización Mundial de la Salud,
la esperanza de vida al nacer, cuyo incremento supone una mejora en la eficiencia de
uso de los recursos (Output 1-Good) y la tasa de mortalidad general ajustada por edad
por cada 100.000 habitantes, cuya disminución supone, de igual forma, la mejora de la
eficiencia de uso de los recursos (Output 2-Bad).
Asociado al estudio de la eficiencia, se encuentra la variabilidad creciente, decreciente o
constante de los outputs asociada a la variación de los inputs. En el caso de las variables
deseables (good), se habla de tasa de rendimiento a escala o RTS. Esta magnitud
muestra la variación mayor, menor o de igual proporción que sufre la variable output
cuando se produce una variación de los inputs, e indica la conveniencia o no de
incrementar el tamaño operacional de la organización. Por ejemplo, cuando RTS es
creciente, se considera que el aumento de inputs utilizados, es decir, el tamaño
operacional, da lugar a un aumento más que proporcional de los outputs-good, por lo
que las grandes organizaciones superan a las pequeñas en rendimiento operacional, y
por tanto, el aumento del tamaño o del volumen de operaciones (o de recursos
utilizados) permite alcanzar la eficiencia operacional. Cuando se trate de RTS constante
se recomienda el mantenimiento del tamaño y cuando sea decreciente se recomienda
reducir el tamaño.
En el caso de las variables no-deseables (bad) se habla de tasa de daños a escala (DTS)
que refleja la variabilidad de los outputs-bad, asociada a la variación de los inputs. En
este caso el efecto creciente, decreciente o constante sobre los outputs es similar al RTS,
sin embargo, el efecto sobre las medidas a tomar serán las opuestas, es decir, cuando se
5
16
trabaja con factores de producción que operan a escala DTS creciente, el aumento de los
inputs provoca un aumento más que proporcional en los outputs-bad. Si tenemos en
cuenta que estos output son no-deseables, y el incremento del tamaño operacional
perjudica el alcance de la eficiencia sanitaria, por lo que se recomienda la disminución
de los inputs utilizados. En el caso de que DTS sea constate o decreciente, no se
recomienda pero si se acepta, mantener o aumentar respectivamente el tamaño
operacional o cantidad de inputs utilizados.
3. ANALISIS ENVOLVENTE DE DATOS
El DEA es una aproximación gerencial para evaluar la actuación operativa de varias
unidades pertenecientes tanto al sector público como al privado, y está considerado como
uno de los métodos de gestión más populares. Dicha popularidad puede ser contrastada en
el artículo de Emrouznejad et al. (2008), el cual resume contribuciones previas al análisis
envolvente de datos. Por otro lado, el artículo de Glover y Sueyoshi (2009) describe la
historia del DEA desde las contribuciones del profesor William W. Cooper, colaborador
fundamental de esta técnica de análisis. Finalmente, Ijiri y Sueyoshi (2010) describen el
transfondo filosófico sobre la contabilidad y la economía que se convirtieron en el eje
fundamental del DEA. Para responder a cuestiones relacionadas con el medio ambiente,
han sido muchas las publicaciones que emplearon métodos de investigación operativa para
obtener evidencias analíticas al respecto. Ejemplo de ello son los trabajos de Cooper et al.
(1996) y Zhou et al. (2008).
La contribución esencial al DEA en los estudios de medioambiente fue encontrar el
método para separar un output en outputs deseables o good y outputs no-deseables o bad,
ya que la producción de los sectores (público y privado) puede ser no-deseable en
ocasiones.
Al separar los outputs en variables positivas y negativas, se puede medir la eficiencia
operacional de los outputs deseables y la eficiencia sanitaria de los outputs no-deseables.
Sin embargo, nos encontramos una dificultad relacionada con esta separación; es decir,
tenemos que averiguar cómo combinar los dos tipos de outputs para poder emplearlos en
un análisis unificado. Los trabajos previos utilizaban el DEA para un uso limitado en la
valoración medioambiental, aunque el DEA tenga una alta capacidad de investigación para
la protección del medio ambiente.
Entre los trabajos previos, podemos destacar a Sueyoshi et al. (2010) y Sueyoshi y Goto
(2010a) que propusieron un nuevo método de combinación para medir la eficiencia
operacional, la eficiencia ambiental y la eficiencia unificada en las plantas térmicas de
carbón estadounidenses, en el que recomendaron al Gobierno Federal que desarrollara una
“Ley de Aire Limpio” para controlar las emisiones de dióxido de carbono, ya que
consideraban a dicho gas como una de los principales fuentes del calentamiento global y el
cambio climático. Con estos estudios investigaron la implicación política mediante dos
estructuras de datos diferentes y dos aproximaciones analíticas, usando la nueva
metodología
unificada.
Por otra parte, el trabajo de Sueyoshi y Goto (2011) comparó la nueva combinación
unitaria con otras aproximaciones unificadas desde la perspectiva de la valoración
medioambiental: en su publicación, discutieron la importancia de la clasificación de los
inputs en variables energéticas y no energéticas dentro de los estudios de medioambiente.
Por ello, es apropiado distinguir entre outputs deseables y no-deseables.
Por último, el trabajo de Sueyoshi y Goto (2010b), considerado una extensión de aquél,
discutía la importancia de la SCSS (siglas en inglés de “Condición de Holgura
Complementaria Fuerte”) en valoración medioambiental. El estudio concluye que las
empresas manufactureras japonesas buscaban en primer lugar la eficiencia operacional para
6
17
la acumulación de capital, y entonces se centraban hacia la eficiencia medioambiental. Las
preferencias empresariales eran éstas a pesar de la considerable presión del gobierno
japonés por la protección ambiental tras la firma del Protocolo de Kyoto.
a. Medidas de eficiencia operacional y sanitaria
En este trabajo se toma como modelo DEA inicial el modelo RAM (siglas en inglés de
“Medida de Rango Ajustado”), propuesto por Cooper et al. (2000) porque es un modelo
de eficiencia basado en holguras y por lo tanto, pueden unificarse fácilmente ambas
eficiencias, operacional y sanitaria. La característica metodológica es importante para la
eficiencia sanitaria, ya que los modelos DEA convencionales presentan dificultad para
unificarlos. Para mayor información, consultar Sueyoshi y Goto (2011), que
proporciona una descripción detallada de las dificultades metodológicas en el uso de
modelos DEA radiales para la valoración de la eficiencia relacionada con las variables
no-deseables.
Se va a revisar la medición de la eficiencia operacional empleando el modelo RAM.
Aplicando el modelo RAM para una valoración del rendimiento unificado,
consideramos “n” unidades de toma de decisiones.
La unidad j-esima (con j=1,…, n) emplea un vector columna de inputs (Xj) con el fin de
producir no solo un vector columna de outputs deseables (Gj), sino también un vector
columna de outputs no-deseables (Bj), en el que Xj=(x1j, x2j, …, xmj)T, Gj=(g1j, g2j, …,
gsj)T y Bj=(b1j, b2j, …, bhj)T. El superíndice “T” significa vector transpuesto y se asume
que Xj>0, Gj>0 y Bj>0 para todo j=1,…, n.
Se evalúa la eficiencia operacional de la unidad organizativa específica “k” mediante el
siguiente modelo RAM input-output deseables (de ahora en adelante, “Modelo 1”):
a.
Modelo Operacional
Maximizar
sujeto a
(i=1,…, m),
(r=1,…, s),
(j=1,…,n),
(i=1,…,m) y
.
En este modelo,
es un vector columna de variables desconocidas
(normalmente nos referimos a ellas como variables “estructurales” o “intensivas”) que
son empleadas para unir los vectores input y output mediante una combinación convexa.
(i=1,…,m) y
son variables de holgura relacionadas con los inputs y
los outputs deseables, respectivamente.
Los rangos en el Modelo 1 son determinados mediante los límites superior e inferior de
los inputs y los de los outputs deseables. Los límites superiores se representan por
=
( )y =
( ). Los límites inferiores se representan por =
( )
y
(
). Por tanto, los rangos del modelo se convierten en
El valor de la eficiencia operacional de la unidad “k” viene dada por:
=1–(
+
), indicando el superíndice (*) el óptimo. La
ecuación dentro del paréntesis nos informa acerca de la valoración de la ineficiencia
operacional.
7
18
Figura 1: Proyecciones para alcanzar la eficiencia operacional.
Fuente: Sueyoshi y Goto (2010c)
La figura 1 muestra una descripción visual de la estructura analítica del Modelo 1. Se
pone especial énfasis en el input “i” y el output deseable “r” de la unidad k-esima. La
unidad organizativa es ineficiente por lo que necesita aumentar su eficiencia operacional
aumentando la cantidad de output deseable producido y/o reducir la cantidad de output
indeseable.
Una dirección para posibles proyecciones puede observarse en el punto B. La línea de
contorno ABC indica la frontera de eficiencia para el output deseable en la que el punto
K puede proyectarse. La dirección de tales proyecciones debería expresarse mediante el
signo de las holguras de los inputs relacionados y las holguras de los outputs deseables
en el Modelo 1.
Para finalizar, hay que mencionar varios problemas acerca del gráfico:
Las posibles proyecciones en el Modelo son dirigidas en un espacio de datos con
múltiples inputs y outputs buenos ya que
tiene efectos positivos en sus signos y ,
efectos negativos en sus signos. Estos signos transforman el Modelo 1 en su opuesto.
En segundo lugar, todos los modelos DEA sufren de la existencia de múltiples
proyecciones; esto puede influir en la medida de los Retornos a Escala (para mayor
conocimiento sobre la cuestión, consultar Sueyoshi y Sekitani (2009a) y Sueyoshi y
Sekitani (2007a,b)).
Finalmente, remarcar que el Modelo podría dirigirse hacia un punto ineficiente, pero no
es necesario considerarlo porque estas proyecciones están relacionadas con la
“congestión” en el Análisis Envolvente de Datos de tal manera que un incremento en los
inputs lleva consigo una reducción de los outputs deseados, como se puede ver en
Cooper et al. (2001a, b) y Sueyoshi y Sekitani (2009b).
b.
Eficiencia sanitaria: 2 modelos y proyecciones
8
19
En este apartado, vamos a medir la eficiencia sanitaria de la unidad organizativa
específica k-esima siguiendo el siguiente modelo RAM input-output no-deseable (de
ahora en adelante, Modelo 2):
+
Maximizar
sujeto a
(i=1,…, m),
(f=1,…, h),
(j=1,…, n),
(i=1,…, m) y
En dicho modelo,
deseables.
.
(f=1,…, h) son variables holgura relacionadas con los outputs no-
Los límites superiores e inferiores se representan por =
( )y
( ).
Por tanto, los rangos del modelo para los inputs y los outputs no-deseables del Modelo 2
son
.
La valoración de la eficiencia sanitaria de la unidad k-esima viene medida por:
=1–(
+
). La ecuación dentro del paréntesis, obtenida del
Modelo 2 optimizado, nos informa acerca la ineficiencia sanitaria.
-Extensión del modelo (de ahora en adelante, Modelo 3):
Maximizar
+
sujeto a
(i=1,…, m),
(f=1,…, h),
(j=1,…, n),
(i=1,…, m),
(i=1,…, m) y
.
En este modelo, la variable holgura relacionada con el input “i” ( ) está dividida en
una parte positiva y otra parte negativa (
). Ambas partes se definen como
y
, siendo
.
Normalmente, esta transformación necesita cumplir la siguiente condición de no
linealidad:
, lo que implica que ambas partes son mutuamente excluyentes.
Debido a ello, se produce una consecuencia de forma simultánea:
,
pero se excluye de la solución óptima del Modelo.
Para que el Modelo 3 satisfaga dichas condiciones no lineales, tenemos 2 alternativas de
cálculo:
1) Incorporar al Modelo las condiciones no lineales como parte de las restricciones.
2) Incorporar las siguientes restricciones:
;
;
: binarios.
9
20
De este modo, podemos resolver el Modelo como un problema de programación entera
mixta.
Tras obtener una solución óptima del Modelo 3, determinamos la puntuación en
eficiencia sanitaria de la unidad k-esima, medida por:
=1–(
+
).
Todas las variables holgura son obtenidas a partir de la optimización del modelo.
La ecuación dentro del paréntesis nos informa acerca la ineficiencia sanitaria.
Gráfica 2: Proyecciones para alcanzar la eficiencia sanitaria
Fuente: Sueyoshi y Goto(2010a, 2011), Sueyoshi et al.(2010)
El gráfico 2 describe una visualización con respecto a por qué los Modelos 2 y 3 pueden
medir el grado de eficiencia sanitaria. Para explicarlo mejor, lo ilustraremos con un
ejemplo:
Tomamos una planta térmica concreta para medir su eficiencia. Para ello, consideramos
la relación entre el input “i” y el output no-deseable “f”. Un rasgo exclusivo para esta
medida es que el output no-deseable está frecuentemente ocasionado por el input; si lo
llevamos al ámbito empresarial, el carbón empleado durante la combustión en la planta
genera emisiones de dióxido de carbono.
Si la planta reduce la cantidad de carbón empleada en el proceso, la consecuencia
automática sería una reducción en la cantidad de emisiones de gases: esto es lo que
denominamos como una “reducción natural”, es decir, se consigue la reducción de
emisiones sin ningún tipo de esfuerzo empresarial.
En el gráfico encontramos una proyección de tal calibre en el desplazamiento del punto
K al punto G: el punto K muestra la actividad de una planta térmica ineficiente y el
punto G, su desempeño cuando se sitúa en la frontera de producción del output nodeseable cuando se trabaja de forma eficiente.
10
21
Por otro lado, el desplazamiento del punto K hacia el punto E informa acerca de un caso
distinto; en esta ocasión, la combustión de carbón implica una reducción de las
emisiones de dióxido de carbono debido a un esfuerzo empresarial (por ejemplo, un
aumento de la calidad del carbón empleado o un esfuerzo tecnológico para reducir las
emisiones). Por todo ello, este desplazamiento puede considerarse base para el estudio
de la medida de la eficiencia sanitaria.
c.
Eficiencia unificada
Un hallazgo importante en el apartado anterior es que hay 2 tipos de modelos
unificados: un primer modelo formado por los modelos 1 y 2, y el segundo compuesto
por los modelos 1 y 3. El siguiente punto combina ambos modelos para medir la
eficiencia unificada propuesta. A partir de aquí, se clasifican en 2 categorías: Categoría
1, que engloba al primer modelo; y Categoría 2: compuesto por el segundo modelo.
Gráfica 3: Eficiencia unificada.
Fuente: Sueyoshi and Goto(2011)
Para explicar las diferencias entre las 2 Categorías, emplearemos la “Gráfica 3”. Dicha
gráfica describe el alcance de cada unidad organizativa que emplea un input y produce
un output deseable y otro no-deseable: analizaremos, por ejemplo, la unidad k-esima.
El gráfico 3 dispone de dos fronteras de eficiencia para unificar la eficiencia operacional
y la sanitaria: la superior indica la frontera para los outputs deseables; la inferior, la
frontera de eficiencia para los outputs no-deseables. Aunque el análisis se puede
extender a múltiples inputs y outputs, en esta ocasión la unidad representada emplea un
único input y solo produce un output deseable y otro no-deseable.
Un aspecto importante es que la frontera eficiente deseable se encuentra por encima de
la frontera de eficiencia de outputs “malos”. Sin embargo, aunque el caso contrario
ocurriera, esto no provocaría dificultades en el cálculo de la medida eficiente, ya que la
unificación solo mide la cantidad total de desviaciones entre las actuaciones de cada
unidad organizativa y la frontera de eficiencia. Las dos fronteras están situadas
11
22
independientemente, tal que el método propuesto puede mantener una cierta fiabilidad.
Esto es un beneficio de la metodología empleada.
Finalmente, el Análisis Envolvente de Datos proyecta una organización ineficiente
sobre una frontera eficiente y evalúa su actividad mediante una comparación relativa
con la actividad de otras organizaciones. Cuando se discute sobre la eficiencia sanitaria,
la dirección de tales proyecciones es mucho más importante que el uso convencional de
las proyecciones en el análisis DEA.
Categoría I
En este apartado, vamos a combinar las medidas de eficiencia para obtener una nueva
medida unificada, diferente a las medidas operacional y sanitaria por separado.
Incluiremos dos nuevos superíndices (“g” y “b”) para especificar los outputs deseables y
los no-deseables, respectivamente.
El nuevo modelo DEA de Categoría I (de ahora en adelante, Modelo 4) ya ha sido
analizado en anteriores trabajos como Sueyoshi y Goto (2010a, 2011) y Sueyoshi et al.
(2010), y tiene la siguiente estructura matemática:
Maximizar
+
sujeto a
+
+
(i=1,…, m),
(r=1,…, s),
(i=1,…, m),
(f=1,…, h),
(i=1,…,m),
(i=1,…,m),
(r=1,…,s),
(j=1,…,n)
(i=1,…,m),
(f=1,…,h)
En dicho modelo, (j=1,…, n) y (j=1,…, n) indican la variable intensidad de la
unidad organizativa j-esima para los outputs deseables y los outputs no-deseables,
respectivamente.
Los rangos en el modelo vienen expresados de la siguiente manera:
.
Para finalizar, hay que mencionar cuatro características que son exclusivas para este
modelo:
En primer lugar, las tres primeras restricciones del modelo tienen su origen en el
Modelo 1 y las tres restantes proceden del Modelo 2.
Por otra parte, dicho modelo incorpora una estructura matemática tal que crea dos
fronteras de eficiencia: una para el comportamiento operacional y otra para el
desempeño sanitario. Dichas fronteras vienen representadas por los dos grupos de
holguras relacionadas con los inputs y los dos grupos de variables de intensidad.
12
23
En tercer lugar, las proyecciones del modelo se dirigen hacia el segundo y el cuarto
cuadrante. Esto ocurre porque los grupos de restricciones tienen signos diferentes; en
concreto, las dos primeras son distintas a la cuarta y quinta restricción.
Finalmente, puede resolverse este modelo como un problema de programación lineal, es
decir, se puede obtener una solución óptima, aunque pueda ocurrir un incidente de
múltiples proyecciones y conjuntos de referencia.
La puntuación de eficiencia unificada se obtiene a partir de la solución óptima y viene
expresada por: = 1 – [
+
+
]
Categoría II
Como alternativa al Modelo 4, en este apartado se emplea un nuevo modelo DEA que
unifica los Modelos 1 y 3, de tal modo que dicha combinación proporciona un único
conjunto de variables de intensidad, al contrario que el Modelo 4, el cual dispone de dos
grupos de variables de intensidad, para obtener una puntuación de eficiencia unificada
para el rendimiento operacional y el sanitario.
Para ello, vamos a emplear la formulación estudiada en Sueyoshi y Goto (2010a, 2011)
y Sueyoshi et al. (2010), de ahora en adelante “Modelo 5”:
Maximizar
+
+
sujeto a
(i=1,…, m),
(r=1,…, s),
(i=1,…,m),
(r=1,…,s),
(j= 1,…, h)
(i=1,…,m),
(f=1,…,h)
La variable de holgura
) relacionada con el input i-ésimo se encuentra separada en
una parte positiva y otra negativa
, incorporadas ambas en el primer grupo
de restricciones.
Matemáticamente, las dos holguras están definidas como
=(| | +
y
=(| | ). Esto conlleva que
en la función objetivo del Modelo 5 y
en el primer grupo de restricciones. La transformación variable de las
holguras de los inputs puede necesitar de las siguientes transformaciones no lineales:
lo cual implica que las dos variables de holgura sean
mutuamente excluyentes. En consecuencia, la condición de no negatividad de las
holguras se excluye de la solución óptima del Modelo 5.
Para que el Modelo 5 cumpla las condiciones no lineales, tenemos dos alternativas
computativas:
1) Incorporar al Modelo las condiciones no lineales como parte de las restricciones y
resolver el Modelo 5 con
como un problema de programación no
lineal.
2) Incorporar las siguientes restricciones:
;
;
13
24
: binarios.
De este modo, podemos resolver el Modelo como un problema de programación entera
mixta; M es un número demasiado grande que debe ser prescrito.
-Inviabilidad de la formulación dual del Modelo 5: Es importante remarcar que el
Modelo puede producir una solución factible. Sin embargo, también se puede producir
una solución ilimitada porque la formulación dual es inviable. En este caso, hay que
depender de una de las dos alternativas. Normalmente, ambas producen una solución
similar. En este caso, la solución ilimitada conlleva al incumplimiento de las
condiciones no lineales del problema; no es una solución ilimitada corriente en
programación no lineal, es decir, que el valor óptimo tiende al infinito.
El incumplimiento de las condiciones implica que las variables de holgura sean
positivas simultáneamente, para cualquier “i” en la solución óptima del Modelo 5.
El problema de cálculo del Modelo 5 supone una desventaja metodológica, aunque el
modelo puede expresar las dos fronteras de eficiencia mediante un único conjunto de
variables de intensidad. Además, la dirección de las proyecciones del Modelo 5 está
enfocada no solo al primer y tercer cuadrante, sino también hacia el segundo cuadrante.
Si la reducción natural se considera parte del esfuerzo gubernamental para la protección
del medioambiente, el segundo cuadrante se convierte en una importante dirección
potencial para las proyecciones del modelo. Para ello, debería incluir estas proyecciones
en la estructura analítica del problema.
Tras obtener una solución óptima del Modelo 5, podemos obtener una puntuación en
eficiencia sanitaria de la unidad k-esima, medida por:
=1–(
+
).
Todas las variables de holgura, que representan el nivel de ineficiencia, son obtenidas a
partir de la optimización del modelo.
La ecuación dentro del paréntesis nos informa acerca la ineficiencia sanitaria.
4. ANALISIS DE LA EFICIENCIA
A continuación se analiza la eficiencia tanto de los recursos públicos utilizados como
del uso que se hace de ellos en el sistema sanitario español. En la tabla I se muestran los
datos relativos a la eficiencia operacional, eficiencia sanitaria, eficiencia unificada, RTS
y DTS, de las 17 CAs y de las dos Ciudades Autónomas del país.
Nº
CA
EOp
ESan
EU
RTS
DTS
RTS Unificada
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
Andalusia
Aragon
Asturias
Balearic Islands
Canary Islands
Cantabria
Castile-Leon
Castile-La Mancha
Catalonia
Valencian Community
Extremadura
Galicia
Madrid
Murcia
Navarra
Basque Country
1
1
0.759
1
0.846
1
1
0.910
1
0.936
1
0.980
1
1
1
0.880
0.788
1
1
0.725
1
1
1
0.966
1
0.837
0.926
0.873
1
0.858
1
1
0.824
1
0.799
0.771
0.872
1
1
0.897
1
0.811
0.938
0.878
1
0.882
1
0.900
Constante
Constante
Decreciente
Constante
Decreciente
Constante
Constante
Decreciente
Constante
Decreciente
Constante
Decreciente
Decreciente
Constante
Constante
Decreciente
Creciente
Creciente
Creciente
Creciente
Creciente
Constante
Creciente
Creciente
Constante
Creciente
Creciente
Creciente
Constante
Creciente
Constante
Creciente
Constante
Constante
Decreciente
Constante
Decreciente
Constante
Constante
Decreciente
Constante
Decreciente
Constante
Decreciente
Decreciente
Constante
Constante
Decreciente
14
DTS
Unificada
Creciente
Creciente
Creciente
Creciente
Creciente
Constante
Creciente
Creciente
Constante
Creciente
Creciente
Creciente
Constante
Creciente
Constante
Creciente
25
17
18
19
Rioja, La
Ceuta
Melilla
0.924
0.914
1
0.937
0.815
1
0.884
0.774
1
Decreciente
Decreciente
Constante
Creciente
Creciente
Creciente
Decreciente
Decreciente
Constante
Creciente
Creciente
Creciente
Tabla I: Eficiencias operacional, sanitaria y unificada, así como tasas de variabilidad de rendimientos a escala y tasas
de variabilidad de daños a escala de las variables deseables y no-deseables por separado, y de su estudio unificado
(Fuente de elaboración propia).
La tabla II muestra el valor de las ineficiencias operacional y sanitaria calculadas de
forma independiente a través de las funciones objetivo de las entidades eficientes, como
la parte de ineficiencia operacional y sanitaria que incorpora el estudio unificado de la
eficiencia. Estas ineficiencias están relacionadas entre sí, por lo que se han calculado
dos variables, H1 y H2, que reflejan la mejora incorporada por el estudio unificado de la
eficiencia tanto en la vertiente operacional como en la vertiente sanitaria, cuando el
estudio se realiza de forma unificada en lugar de independiente.
Nº
CA
1
2
3
4
Andalusia
Aragon
Asturias
Balearic
Islands
Canary
Islands
Cantabria
Castile-Leon
Castile-La
Mancha
Catalonia
Valencian
Community
Extremadura
Galicia
Madrid
Murcia
Navarra
Basque
Country
Rioja, La
Ceuta
Melilla
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
Fobj-OP
FobjOP-U
Fobj-San
Fobj-San-U
0
0
0,24116147
0
0
0,20096789
0,21158093
0
0
0,17631744
0
0
H1=( FobjOP)-( FobjOP-U)
0
0
0,04019358
H2=( FobjSan )-( FobjSan-U)
0,03526349
0
0
Mejora=
H1+H2
0,03526349
0
0,04019358
0
0
0,2745587
0,22879892
0
0,04575978
0,04575978
0,1538245
0
0
0,12818708
0
0
0
0
0
0
0
0
0,02563742
0
0
0
0
0
0,02563742
0
0
0,08985873
0
0,07488228
0
0,03415036
0
0,02845863
0
0,01497646
0
0,00569173
0
0,02066818
0
0,06428425
0
0,02024846
0
0
0
0,05357021
0
0,01687372
0
0
0
0,16291396
0,07394126
0,12656542
0
0,14192015
0
0,13576163
0,06161772
0,10547118
0
0,11826679
0
0,01071404
0
0,00337474
0
0
0
0,02715233
0,01232354
0,02109424
0
0,02365336
0
0,03786637
0,01232354
0,02446898
0
0,02365336
0
0,12007997
0,07583442
0,08582251
0
0,10006664
0,06319535
0,07151876
0
0
0,06277687
0,1851356
0
0
0,05231406
0,15427966
0
0,02001333
0,01263907
0,01430375
0
0
0,01046281
0,03085593
0
0,02001333
0,02310188
0,04515968
0
Tabla II: Relaciones entre ineficiencias operacional, sanitaria y unificada (Fuente de elaboración propia).
Fobj-OP: Ineficiencia operacional marcada por la función objetivo de la eficiencia operacional
Fobj-OP-U: Componente operacional de la ineficiencia unificada marcada por la función objetivo de la eficiencia
unificada.
Fobj-San: Ineficiencia sanitaria marcada por la función objetivo de la eficiencia sanitaria.
Fobj-San.U: Componente sanitaria de la ineficiencia unificada marcada por la función objetivo de la eficiencia
unificada.
- Andalucía.
En términos globales, la CA de Andalucía cuenta con eficiencia operacional pero no con
eficiencia sanitaria (ver tabla I). Ello significa, que tiene un tamaño productivo
adecuado, que le permite con los recursos públicos invertidos en sanidad por habitante
protegido, así como de la distribución que realiza de los mismos entre conciertos,
formación de residentes y aplicación pública directa a los ciudadanos, un nivel
adecuado de la esperanza de vida al nacer, por lo que se entiende que su gestión es
eficiente en la consecución del output que se considera deseable, y se sitúa en la frontera
superior para el citado output-good. El hecho de no contar con eficiencia sanitaria
(0.788), implica que debe reducir la tasa de mortalidad por cada 100.000 habitantes en
más de 100 personas, para lo que debe incrementar la inversión sanitaria por habitante
protegido hasta 1.380€ y destinar a conciertos una proporción mayor de la que destina
en la actualidad (debe pasar del 4,73% al 5,61%) a la vez que mantiene el porcentaje de
inversión en las otras áreas (ver Anexo II). Se debe tener en cuenta, que la tasa de daños
15
26
a escala (DTS) es creciente, lo que implica que un incremento de los inputs, provoca un
incremento más que proporcional del output no-deseable (output-bad), por lo que la
recomendación relativa al tamaño operacional es que debe reducir la cantidad de inputs
utilizados, no incrementarlos. Deben, por ello, buscarse otras medidas o políticas
encaminadas a reducir el output no-deseable o a cambiar la tendencia de variabilidad de
los daños a escala que se producen.
El hecho de no contar con eficiencia sanitaria implica que tampoco cuenta con
eficiencia unificada. En este caso el valor de la eficiencia unificada es inferior al valor
de la eficiencia operacional y superior al valor de la eficiencia sanitaria (0.824) (ver
tabla I). La eficiencia unificada, combina ambas eficiencias al tener en cuenta que en la
organización al utilizar unos determinados inputs se generan una serie de outputs (good
y bad) de forma conjunta y no separada. Al estudiar la eficiencia unificada, observamos
como las componentes de ineficiencias operacional y sanitaria de la eficiencia unificada,
absorben parte de sus respectivas ineficiencias tratadas de forma independiente, ya que
ese margen residual de ineficiencias es superior a la ineficiencia operacional e inferior a
la ineficiencia sanitaria (ver tabla II), lo que sitúa a la eficiencia unificada en un punto
intermedio entre las eficiencias operacional y sanitaria.
Esto implica que al analizar la eficiencia en la gestión de los recursos para obtener unos
determinados niveles de output deseable y no-deseable, la organización debe ser capaz
de mejorar la eficiencia para situarse en la frontera superior eficiente marcada por las
funciones de producción de las organizaciones eficientes en la gestión de sus recursos
con unos niveles adecuados de producción de outputs deseables y en la frontera inferior
para los no-deseables. En el caso de Andalucía (ver Anexo III) se sitúa en la frontera
superior, pero para situarse en la inferior debe realizar un esfuerzo financiero con el
incremento de los recursos que destina a gastos sanitarios por habitante protegido hasta
los 1380€ y la proporción que destina a conciertos hasta el 5,61% a la vez que reduce la
tasa de mortalidad por cada 100.000 habitantes en más de 100 personas. Podemos
observar, que las modificaciones necesarias para situar a la organización en la frontera
eficiente, son las mismas que en el caso de la eficiencia sanitaria. Esto se debe a dos
hechos fundamentales, el primero relativo a que el punto proyectado en la frontera
eficiente, está marcado por dos vectores que establecen un intervalo dentro del cual
puede situarse el nivel de uso de inputs y el nivel de outputs alcanzados. El segundo, es
que los coeficientes aplicados a las eficiencias operacional, sanitaria y unificada, tienen
una diferencia mínima, la suficiente como para mostrar la diferencia entre eficiencias y
el peso negativo que tiene la falta de eficiencia sanitaria sobre la unificada, pero que no
es suficiencia como para modificar el intervalo que marca el punto en la frontera
eficiente. La variabilidad tanto de la tasa de rendimientos a escala (constante) como de
la tasa de daños a escala (creciente) no se ve alterada, por lo que se debe ser prudente a
la hora de gestionar los recursos para obtener el nivel adecuado de output no-deseable,
ya que una variación de los inputs provoca un aumento más que proporcional de los
outputs no-deseables lo que puede perjudicar la eficiencia.
- Aragón.
La CA de Aragón, cuenta con eficiencia operacional, eficiencia sanitaria y eficiencia
unificada (ver tabla I), por lo que se sitúa en las fronteras eficientes que marcan las
funciones de producción de las DMUs eficientes para distintos tipos de eficiencia, es
decir, realiza unas inversiones por habitante protegido en el sistema sanitario, así como
una distribución de dichas inversiones de forma eficiente tanto para alcanzar un nivel de
esperanza de vida adecuado y una tasa de mortalidad por cada 100.000 habitantes
aceptable tanto si se estudian las eficiencias por separado como de forma unificada. Ello
16
27
se debe a que al no existir ineficiencias operacional ni sanitaria, lógicamente no es
posible disminuirlas cuando se realiza un estudio unificado.
- Asturias.
En el caso de la CA de Asturias, su servicio sanitario cuenta con eficiencia sanitaria,
pero no con eficiencia operacional que alcanza un valor de 0.759 (ver tabla I). La falta
de eficiencia operacional indica que no cuenta con una dimensión adecuada. Para
alcanzar la eficiencia operacional, la organización debe realizar una serie de ajustes
tanto en sus inputs como en su output deseable (ver Anexo I). Debe reducir el gasto
sanitario por habitante protegido en casi 370€ a la vez que reduce ligeramente la parte
de este gasto que destina a formación de residentes (4%) y la que destina a la atención
directa de los ciudadanos (0.84%), con lo que debe conseguir un aumento de la
esperanza de vida de más de 1,65 años, es decir, debe reducir su estructura operacional
en aras de conseguir la eficiencia operacional y alcanzar el nivel de output deseables
con una menor cantidad de recursos invertidos. Esta falta de eficiencia operacional
explica la falta de eficiencia unificada (0.799), que se encuentra entre la eficiencia
operacional y sanitaria. Los ajustes necesarios para alcanzar la eficiencia unificada son
los mismos que los que hay que realizar para alcanzar la eficiencia operacional (ver
anexo III), ello se debe a que el punto proyectado sobre la frontera eficiente para marcar
los niveles óptimos de inputs y outputs, viene determinado por unos vectores que
delimitan el área dentro de la cual se encuentran los puntos ineficientes de producción y
que deben tender hacia el proyectado en la frontera eficiente marcada por las funciones
de producción de las DMUs eficientes. La organización se sitúa en la frontera inferior
de la eficiencia unificada pero no en la superior. Para ello, debe realizar una serie de
ajustes tanto en sus inputs como en su output deseable. Debe reducir el gasto sanitario
por habitante protegido en casi 370€ a la vez que reduce la parte de este gasto que
destina a formación de residentes (4,07%) y la que destina a la atención directa de los
ciudadanos (0.84%), con lo que debe conseguir un aumento de la esperanza de vida de
más de 1,65 años. A estos niveles cuenta con una dimensión operacional adecuada para
conseguir la eficiencia unificada. Se debe tener en cuenta que la tasa de RTS es
decreciente, por lo que la variación de los inputs provoca una variación menos que
proporcional de los outputs por lo que la reducción que se ha sugerido anteriormente
tiende a provocar una reducción del output menos que proporcional, aunque no un
aumento como se propone.
El hecho de que la eficiencia unificada, se encuentre encima de la eficiencia operacional
y por debajo de la eficiencia sanitaria, se explica porque al realizar el estudio unificado
de la eficiencia, se incorpora una mejora que viene dada por la comparación de las
componentes separables de las funciones objetivo de las eficiencias operacional y
sanitaria unificadas sobre las de sus respectivas ineficiencias calculadas de forma
independiente (ver tabla II), y esta mejora es mayor que la ineficiencia operacional,
marcada por la función objetivo del servicio sanitario asturiano para el estudio de la
eficiencia operacional, por lo que absorbe la ineficiencia operacional.
- Islas Baleares.
En el caso del servicio sanitario de las Islas Baleares, nos volvemos a encontrar con que
cuenta con eficiencia operacional, pero no con eficiencia sanitaria (0.725), lo que da
lugar a un nivel de eficiencia unificada que se encuentra entre ambos (0.771) (ver tabla
I). Este servicio sanitario, se encuentra bien dimensionado, de forma que realiza unas
inversiones sanitarias por habitante protegido y las distribuye de forma apropiada para
alcanzar el nivel de outputs deseable adecuados. Desde el punto de vista de la eficiencia
17
28
sanitaria, es necesario que se realicen una serie de ajustes para alcanzar dicha eficiencia
(ver anexo II). Para conseguir la eficiencia sanitaria es necesario aumentar el gasto
sanitario por habitante protegido en 191,51€, al mismo tiempo que se aumenta la
proporción de los mismos que se destina a formación de residentes y a atención directa
a los ciudadanos (aumento del 71% y 1,71% respectivamente). Junto a estos ajustes de
los inputs, se requiere una disminución de la tasa de mortalidad por cada 100.000
habitantes en más de 72 personas (15% aproximadamente).
En el caso de la eficiencia unificada, el sistema balear de sanidad se sitúa en la frontera
superior marcada por las funciones de producción que cuentan con eficiencia unificada,
sin embargo para situarse al mismo tiempo en la frontera inferior y contar así con
eficiencia unificada necesita incrementar su inversión pública sanitaria por habitante
protegido en 191,51€, a la vez que destina incrementa la proporción de los mismos que
destina a formación de residentes en un 71% y la parte que destina a gasto sanitario
directo en un 1,71%, a la vez que reduce la tasa de mortalidad por cada 100.000
habitantes en 73 personas, ajustes similares a los que debe realizar para alcanzar la
eficiencia sanitaria (ver anexo II). Esta coincidencia, como se ha dicho anteriormente, se
debe a que el punto proyectado sobre la frontera eficiente está marcado por dos vectores
que establecen un área desde la cual todos los puntos incluidos en ella deben tender al
punto proyectado para alcanzar la eficiencia.
A esos niveles, este sistema sanitario tiene tanto eficiencia sanitaria como eficiencia
unificada, no obstante, debe tenerse en cuenta que en ambos casos la DTS es creciente,
lo que implica que un aumento de los inputs provoca un aumento más que proporcional
de los outputs lo que sería contraproducente para alcanzar el objetivo de eficiencia que
nos hemos marcado, por lo que deberían aplicarse otro tipo de políticas capaces de
mejorar la eficiencia.
En este caso, como podemos observar en la Tabla II, al no existir ineficiencia desde el
punto de vista operacional, el estudio unificado de la misma no puede reducir el nivel de
ineficiencia por debajo de la ineficiencia operacional al ser una DMU eficiente. Si
puede, en cambio, al existir un nivel de ineficiencia sanitaria por encima de la mejora
incorporada por las componentes unificadas de las ineficiencias operacional y sanitaria
unificadas sobre sus respectivas eficiencias operacional y sanitaria, absorber parte de la
ineficiencia sanitaria y situar la eficiencia unificada por encima de la sanitaria pero sin
alcanzar el nivel de eficiencia.
- Islas Canarias.
El sistema sanitario de las Islas Canarias, tiene eficiencia sanitaria pero no eficiencia
operacional (0.846), lo que indica que este servicio sanitario no está bien dimensionado.
La eficiencia unificada se encuentra entre los valores de la eficiencia operacional y
sanitaria (0.872), ya que la falta de eficiencia operacional impide que este servicio
sanitario cuente con eficiencia cuando el estudio se realiza de forma unificada (ver tabla
I). Para alcanzar la eficiencia operacional (ver Anexo I), el servicio sanitario canario,
debe reducir la cantidad de gasto sanitario por habitante protegido en más del 12,6%, a
la vez que disminuye la proporción de los mismos destinada a conciertos y formación
de personal (13,6% y 16,8% respectivamente), junto a estas disminuciones debe
incrementar la esperanza de vida en casi un año. A estos niveles, el servicio sanitario de
la CA de Canarias alcanzará la eficiencia operativa y se situará en la frontera eficiente
marcada por las funciones de producción de las entidades eficientes en el uso de los
recursos que utilizan para la consecución de un nivel de output-good o deseable. Esta
falta de eficiencia operacional, da lugar a la falta de eficiencia unificada. Para situarse
18
29
en las fronteras eficientes superior e inferior marcadas por las funciones de producción
de las DMUs unificadamente eficientes, el servicio sanitario de las Islas Canarias, debe
realizar unos ajustes similares a los que debe realizar para alcanzar la eficiencia
operacional (ver anexo III). Ello se debe la que el punto sobre la frontera eficiente viene
marcado no por un vector, sino por un área delimitada por dos vectores desde la cual se
puede tender a la eficiencia. Se observa que la tasa RTS es decreciente, lo que implica
que una variación de los inputs provoca una variación menos que proporcional de los
outputs, y que si se lleva a cabo una reducción de los inputs como la propuesta, provoca
una disminución menos que proporcional a la de los inputs, pero en cualquier caso una
disminución y no un aumento como el que se ha sugerido.
El hecho de contar con eficiencia sanitaria implica, obviamente, la falta de ineficiencia
sanitaria, por lo que la mejora que introduce el estudio unificado de la eficiencia en
relación al estudio de la eficiencia operacional y sanitaria por separado, no puede
mejorar la eficiencia sanitaria, sin embargo, esa mejora si que afecta a la eficiencia
operacional ya que absorbe parte de su ineficiencia (ver tabla II) y sitúa a la eficiencia
unificada entre los valores de la eficiencia sanitaria y operacional .
- Cantabria.
La CA de Cantabria cuenta con eficiencia operacional, sanitaria y unificada (ver tabla
I), lo que implica un uso eficiente de los recursos invertidos en la sanidad pública, con
un nivel adecuado de gasto por habitante protegido y una distribución de los mismos de
forma conveniente, que le permite obtener una esperanza de vida y tasa de mortalidad
por cada 100.000 habitantes adecuados (ver anexos I, II y III) y situarse en las fronteras
de producción de las organizaciones eficientes, fronteras a la que su propia función de
producción contribuye a delimitar. La falta de eficiencia operacional y sanitaria, implica
la imposibilidad de mejora cuando se realiza el estudio de forma unificada en lugar de
independiente.
- Castilla-León.
Nuevamente nos encontramos con un servicio sanitario, el de la CA de Castilla-León,
que alcanza la eficiencia operacional, sanitaria y unificada (ver tabla I). Se confirma por
tanto utiliza los recursos públicos que destina a su sistema sanitario lo hace de forma
eficiente a la hora de conseguir unos niveles de outputs deseable y no-deseable
adecuados. El estudio unificado de las eficiencias operacional y sanitaria, se realiza en
base a la pérdida de ineficiencia operativa y sanitaria cuando el estudio se realiza
comparando las componentes de ineficiencia operativa y sanitaria de la eficiencia
unificada con ambas ineficiencias estudiadas de forma independiente (ver tabla II). Al
contar con eficiencia operacional y sanitaria, no existen ineficiencias por lo que no es
posible reducirla.
- Castilla-La Mancha.
El servicio sanitario de la CA de Castilla-La Mancha, no tiene ni eficiencia operacional
(0.910), ni eficiencia sanitaria (0.966), ni eficiencia unificada (0.897) (ver tabla I). Se
trata, en primer lugar, de una organización mal dimensionada, que no se sitúa en la
frontera eficiente superior marcada por las funciones de producción de las entidades
operacionalmente eficientes. Para conseguir alcanzar la eficiencia operacional debe
reducir el gasto sanitario por habitante protegido en un 12,5%, a la vez que reduce la
proporción de los mismos que destina a formación de residentes (reducción de 6,4%), el
resto de variables utilizadas en el estudio no necesita ningún ajuste, incluida la
esperanza de vida que se considera tiene un nivel adecuado (ver anexo I). A estos
19
30
niveles, el servicio sanitario de la CA de Castilla-La Mancha, se sitúa en la frontera
eficiente marcada por las funciones de producción de las DMUs operacionalmente
eficientes.
Para alcanzar la eficiencia sanitaria, y gestionar sus recursos de forma adecuada en aras
a alcanzar un nivel de output no-deseable necesario para obtener esta eficiencia, debe,
con el nivel de gasto sanitario por habitante protegido actual, incrementar la proporción
del mismo que destina a conciertos y a formación de residentes (5,75% y 6,2%
respectivamente), a la vez que disminuye la tasa de mortalidad por cada 100.000
habitantes 16 personas (ver anexo II). A estos valores el sistema sanitario de Castilla-La
Mancha se sitúa en la frontera eficiente marcada por las funciones de producción de las
DMUs sanitariamente eficientes.
Como hemos dicho, este servicio sanitario tampoco cuenta con eficiencia unificada.
Para alcanzarla, el servicio sanitario de la CA de Castilla-La Mancha, debe realizar
ajustes similares a los realizados para alcanzar la eficiencia operacional y situarse en la
frontera superior marcada por las funciones de producción que cuentan con eficiencia
unificada y ajustes similares a los establecidos para alcanzar la eficiencia sanitaria y
situarse así en la frontera inferior marcada por las mismas funciones de producción (ver
anexo III). Se vuelve a insistir en que la coincidencia en los ajustes se debe a que la
proyección puede darse desde los diferentes puntos de un área delimitada por los
vectores que focalizan el punto en la frontera eficiente al que debe proyectarse la DMU
para conseguir la eficiencia.
Debe tenerse en cuenta que la tasa RTS tanto cuando se estudia a eficiencia operacional,
como cuando se estudia la eficiencia unificada es decreciente lo que implica que una
variación de los inputs provoca una variación menos que proporcional de los outputs
por lo que la reducción propuesta tiende a disminuir el output-good aunque sea menos
que proporcionalmente. Del mismo modo, la tasa DTS tanto para la eficiencia sanitaria
como para la unificada, es creciente, lo que implica que un aumento de los inputs
provoca un aumento más que proporcional de los outputs, lo cual va en contra de las
medidas de ajustes propuestas, por lo que es necesario aplicar otro tipos de políticas
adicionales para alcanzar el objetivo de eficiencia.
El estudio de la eficiencia unificada, arroja un valor de la eficiencia por debajo de las
eficiencias operacional y sanitaria. En este caso, la mejora incorporada por eficiencia
unificada con respecto a las eficiencias operacional y sanitaria estudiadas de forma
separada, debe absorber tanto la ineficiencia operacional como la sanitaria. En ambos
casos, esa mejora no alcanza el nivel de ineficiencia operacional, ni el nivel de
ineficiencia sanitaria determinada por las funciones objetivo de ambas eficiencias (ver
tabla II), por lo que no es capaz de absorber ninguna de ellas en su totalidad y sitúa la
eficiencia unificada por debajo de las otras dos.
- Cataluña.
La gestión de los recursos públicos invertidos en el sistema sanitario de la CA de
Cataluña se realiza de forma eficiente tanto si se realiza un estudio independiente de las
eficiencias operacional y sanitaria, como si el estudio se hace de forma unificada, para
alcanzar unos niveles de outputs adecuados (ver anexos I, II y III). La falta de
ineficiencias operacional y sanitaria da lugar a que el estudio unificado de las mismas
no requiera de mejora de la eficiencia (ver tabla II). En definitiva, la CA de Cataluña
con las inversiones sanitarias por habitante protegido, y la distribución de la misma
entre conciertos, formación de residentes y atención directa a los ciudadanos que
realiza, sitúa la esperanza de vida y la tasa de mortalidad a unos niveles adecuados
20
31
como para situar el sistema sanitario autonómico, en relación a las variables analizadas,
en las fronteras eficientes marcadas por las funciones de producción de las DMUs
eficientes, entre las que ella misma se encuentra, tanto a nivel operacional y sanitario de
forma independiente, como unificado.
- Comunidad Valenciana.
El servicio sanitario de la Comunidad Valenciana, no cuenta ni con eficiencia
operacional (0.936), ni con eficiencia sanitaria (0.837), ni con eficiencia unificada
(0.811) (ver tabla I). Este servicio sanitario debe reestructurar las inversiones que realiza
en gasto sanitario y disminuir su dimensión para alcanzar la eficiencia operacional (ver
anexo I). La proyección que debe realizar de sus variables, en este sentido, requieren
una disminución del gasto sanitario por habitante protegido de casi 33€, así como una
leve disminución de la proporción que destina a atención directa a los ciudadanos de
0.34%. Con estas medidas de ajuste, no llega a alcanzar la eficiencia operacional ya que
adicionalmente es necesario un incremento de la esperanza de vida de más de una año.
A esos niveles, el servicio sanitario de la Comunidad Valenciana está trabajando a unos
niveles que le permiten obtener la eficiencia operacional y situarse en la frontera
marcada por las funciones de producción de las DMUs operacionalmente eficientes.
Para alcanzar la eficiencia sanitaria, en cambio, debe incrementar el gasto sanitario por
habitante protegido en más de 85€, a la vez que incrementa la proporción de los mismos
que destina a conciertos y a formación de residentes (7,2% y 22,76% respectivamente).
Estos ajustes de los inputs no consiguen colocar a este servicio sanitario en la frontera
marcada por las funciones de producción de las DMUs eficientes, adicionalmente se
requiere una disminución de la tasa de mortalidad por cada 100.000 habitantes de más
del 14% (ver anexo II). A esos niveles, el servicio sanitario de la Comunidad Valencia,
cuenta con eficiencia sanitaria y se sitúa en la frontera marcada por las funciones de
producción de las organizaciones que operan con eficiencia sanitaria.
Para contar con eficiencia unificada, el sistema sanitario de la Comunidad Valencia
debe llevar a cabo ajustes similares a los que se proponen para alcanzar la eficiencia
operacional y situarse en la frontera superior marcada por las funciones de producción
que cuentan con eficiencia unificada y ajustes similares a los que se proponen para la
eficiencia sanitaria, y situarse en la frontera inferior marcada de las mismas funciones
de producción (ver anexo 3). El hecho de que a pesar de partir de dos puntos distintos
de eficiencia se requiera tender hacia las mismas proyecciones, se debe, como se ha
dicho ya reiteradas veces, a que dicho punto está marcado por dos vectores que
delimitan un área desde la que cualquier punto de la misma deba proyectarse hacia la
convergencia vectorial para alcanzar la eficiencia.
Debe tenerse en cuenta que tanto para eficiencia operacional como para la unificada la
tasa RTS es creciente, lo que implica que una variación de los inputs provoca una
variación más que proporcional de los outputs-good o deseables, por lo que la
disminución propuesta de los inputs da lugar a una disminución más que proporcional
de la esperanza de vida, y no un aumento como se propone. Por el contrario, la tasa DTS
es decreciente tanto para la eficiencia sanitaria como para la unificada, lo que implica
que una variación de los inputs provoca una variación menos que proporcional de los
outputs, por lo que si se realizan los ajustes al alza propuestos, la variación del outputbad o no-deseable es menos que proporcional pero suponen un incremento del output en
lugar de la disminución propuesta.
Este sistema sanitario tiene una eficiencia unificada por debajo tanto de la eficiencia
operacional como de la eficiencia sanitaria. Ello se debe a que la mejora incorporada
21
32
por las componentes operacional y sanitaria de la eficiencia unificada sobre las
eficiencias operacional y sanitaria respectivamente, no alcanzan ni el valor de la
ineficiencia operacional, ni el valor de la ineficiencia sanitaria, establecido por las
funciones objetivo de ambas eficiencias para este sistema sanitario. Por lo tanto, la
mejora no es capaz de absorber ninguna de las dos ineficiencias al completo, y eso da
lugar a una eficiencia unificada por debajo de las otras dos.
- Extremadura.
En el caso del servicio sanitario de la CA de Extremadura, cuenta con eficiencia
operacional pero no con eficiencia sanitaria (0.926), lo que da lugar a la falta de
eficiencia unificada (0.938) (ver tabla I). Los ajustes necesarios para situarse en la
frontera eficiente cuando estudiamos la eficiencia en la gestión de los recursos para
alcanzar un nivel adecuado de output no-deseable en el servicio sanitario de
Extremadura, es decir, cuando se pretenden alcanzar la eficiencia sanitaria, deben, con
el mismo nivel de inversión en gasto sanitario por habitante protegido, aumentar más de
un 18% el porcentaje de gasto destinado a conciertos y un 13,7% los destinados a
formación de residentes. Aun así, no se alcanza la eficiencia sanitaria si no se diminuye
la tasa de mortalidad en casi 40 personas por cada 100.000 habitantes (ver anexo II). A
estos niveles, el sistema sanitario extremeño se sitúa en la frontera que marcan las
funciones de producción de la DMUs eficientes en el caso de la eficiencia sanitaria.
Los ajustes que se requieren para conseguir la eficiencia unificada, son similares a los
que se requieren para alcanzar la eficiencia sanitaria (ver anexo III). A esos niveles de
inputs y output no-deseable, el servicio sanitario de Extremadura se sitúa en las
fronteras superior e inferior que marcan las funciones de producción unificadamente
eficientes.
No obstante, de nuevo se debe tener en cuenta que los DTS son crecientes por lo que un
incremento de los inputs da lugar a un incremento más que proporcional de los outputs,
lo que puede proporcionar un efecto contrario al pretendido para alcanzar la eficiencia.
Ello implica que se hace necesario aplicar unas políticas de ajuste y mejora de la
eficiencia aparte de los ajustes sobre las variables estudiadas propuestos.
La falta de eficiencia sanitaria es superior a la mejora incorporada por el estudio
unificado de la eficiencia a través de sus componentes operacional y sanitaria, por tanto,
aunque se absorbe parte de la ineficiencia sanitaria al realizar un estudio unificado de la
eficiencia, no lo hace en su totalidad, y sitúa a la eficiencia unificada por encima de la
sanitaria, sin conseguir llegar a ser unificadamente eficiente.
- Galicia.
El sistema sanitario de la CA de Galicia no cuenta ni con eficiencia operacional (0.980),
ni con eficiencia sanitaria (0.873), y por ende, tampoco con eficiencia unificada (0.878)
(ver tabla I). Se observa, de nuevo, que la falta de eficiencias operacional y sanitaria,
impide la existencia de eficiencia unificada.
Para alcanzar la eficiencia operacional el sistema sanitario de Galicia debe reducir el
gasto sanitario por habitante protegido únicamente en algo más de 27€ y conseguir, con
la misma distribución de los recursos que realiza actualmente entre conciertos,
formación de residentes y atención directa a los ciudadanos, un leve incremento de
apenas 0.24% de la esperanza de vida (ver anexo I). Con estos ligeros ajustes, el sistema
sanitario gallego tiene una dimensión adecuada que le permite situarse en la frontera
marcada por las funciones de producción de las DMUs operacionalmente eficientes.
22
33
La eficiencia sanitaria, en cambio, debe incrementar el gasto sanitario por habitante
protegido en más de 150€, a la vez que aumenta la proporción de ellos que destina a
conciertos (11,45%) y a formación de residentes (0.97%). Aun a esos niveles de inputs,
este servicio sanitario requiere de una disminución de la tasa de mortalidad por cada
100.000 habitantes de casi 47 personas (ver anexo II). A esas cotas, el sistema sanitario
gallego gestiona sus recursos con eficiencia sanitaria y se sitúa en la frontera marcada
por las funciones de producción de las DMUs sanitariamente eficientes.
La proyección hacia la frontera superior marcada por las funciones de producción de
aquellos servicios sanitarios que cuentan con eficiencia unificada implica los mismos
ajustes que los propuestos para alcanzar la eficiencia operacional. Para situarse en la
frontera inferior de las DMUs que cuentan con eficiencia unificada, los niveles de inputs
y output-bad deben sufrir los mismos ajustes que se requieren para conseguir la
eficiencia sanitaria (ver anexo III). Estas coincidencias se explican porque la proyección
del valor eficiente está marcada por dos vectores convergentes en el mismo punto
proyectado y que proporcionan un margen espacial desde el que se puede converger
hacia dicho punto.
Debe tenerse en cuenta, que la tasa RTS es decreciente tanto cuando se estudia la
eficiencia operacional como cuando se estudia la eficiencia unificada, lo que implica
que la disminución de los inputs propuesta, da lugar a una disminución menos que
proporcional del output-good o deseable, pero disminución al fin y al cabo, y contrario
al ajuste al alza propuesto. La tasa DTS, en cambio, tanto cuando se estudia la eficiencia
sanitaria como unificada es creciente lo que implica que un incremento de los inputs
provoca un incremento más que proporcional de los outputs, contraria, de igual forma, a
los ajustes indicados.
En este caso, se observa que la eficiencia unificada es inferior a la eficiencia
operacional pero superior a la eficiencia sanitaria. Ello se debe a que la mejora en la
eficiencia incorporada por las componentes operacional y sanitaria de la eficiencia
unificada, se encuentra por debajo de la ineficiencia sanitaria y al mismo nivel de la
ineficiencia operacional, lo que permite a la eficiencia unificada absorber en su totalidad
la ineficiencia operacional pero no la ineficiencia sanitaria (ver tabla II).
- Madrid.
En el caso del sistema sanitario público de la CA de Madrid, se comporta de manera
eficiente tanto a nivel operacional, como sanitario y unificado (ver tabla I). Este sistema
sanitario, consigue con los recursos invertidos y la distribución que realiza de ellos, un
buen nivel de esperanza de vida y un nivel aceptable de índice de mortalidad (ver
anexos I, II y III). El hecho de contar con ambas eficiencias implica lógicamente su falta
de ineficiencia por lo que el estudio conjunto de ambas, no da lugar a mejora alguna
(ver tabla II).
- Murcia.
El sistema sanitario murciano alcanza la eficiencia operacional aunque no la eficiencia
sanitaria (0.858). Esta falta de eficiencia sanitaria impide la falta de eficiencia unificada
(0.882) (ver tabla I).
Los ajustes necesarios para alcanzar la eficiencia sanitaria (ver anexo II) consisten en
incrementa la proporción de los gastos destinados a formación de residentes en más de
un 150% (aunque el aumento en términos absolutos sea de algo más del 1%). Con este
ajuste no se consigue la eficiencia operacional, debe acompañarse de la disminución de
la tasa de mortalidad de 26 personas por cada 100.000 habitantes. A estos niveles, el
23
34
sistema sanitario de Murcia se sitúa en la frontera marcada por las funciones de
producción de las DMUs que trabajan a un nivel de eficiencia sanitaria.
Este sistema sanitario, se sitúa en la frontera superior marcada por las funciones de
producción de las DMUs que cuentan con eficiencia unificada, no así en la inferior, para
lo que requiere unos ajustes similares a los propuestos para alcanzar la eficiencia
sanitaria (ver anexo III). Como se ha dicho previamente, esta coincidencia deriva del
hecho de que el punto proyectado sobre la frontera eficiente viene marcado por dos
vectores que delimitan un área desde la que se puede converger para alcanzar la
eficiencia.
Nuevamente decir que hay que ser consciente de la tasa de variabilidad, tanto para la
eficiencia sanitaria como unificada, de los DTS es creciente, lo que implica que un
incremento en algún input provoca un incremento más que proporcional en el output (en
este caso no-deseable), lo que afecta de forma negativa a la consecución del objetivo de
eficiencia que pretendemos. Ello implica que se requieren una serie de políticas
adicionales donde se incida en variables al margen de las estudiadas en este trabajo.
La eficiencia unificada tiene un valor inferior a la eficiencia operacional y superior a la
eficiencia sanitaria. Ello se debe a que la mejora incorporada por las componentes
separables de las eficiencias operacional y sanitaria unificadas sobre sus respectivas
eficiencias, es superior a la ineficiencia operacional que en este caso es inexistente y por
tanto no requiere mejora, e inferior a la ineficiencia sanitaria, con lo que no es capaz de
absorberla en su totalidad (ver tabla II).
- Navarra.
La CA de Navarra, es también una CA que gestiona sus recursos de forma eficiente
tanto desde el punto de vista operacional, sanitario como unificado (ver tabla I). La
inversión pública que hace por habitante protegido y el uso de la misma que realiza,
consigue llegar a unos niveles de esperanza de vida y tasa de mortalidad que sitúan al
servicio sanitario de esta CA en las fronteras marcadas por las funciones de producción
de las DMUs eficientes, por lo que no se requiere ningún tipo de ajuste (ver anexos I, II
y III). El estudio unificado de las eficiencias no implica mejora alguna de la misma al
no contar de forma independiente con ningún tipo de ineficiencia (ver tabla II). Las
funciones objetivo en ambos casos son cero por lo que el estudio conjunto de ambas no
provoca variación alguna en la eficiencia unificada.
- País Vasco.
El servicio sanitario del País Vasco está sobre dimensionado por lo que no alcanza la
eficiencia operacional (0.880), aunque si la sanitaria. El hecho de no contar con
eficiencia operacional implica la falta de eficiencia unificada (0.900). Para llegar
trabajar a un nivel de eficiencia operacional, este sistema sanitario debe disminuir el
gasto sanitario por habitante protegido en 250€, lo que supone una reducción de un
15%, a la ver que reduce la proporción de dicho gasto destinado a la formación de
residentes en casi un 7%. Estas medidas de ajustes no son efectivas, si no van
acompañadas de un leve incremento de la esperanza de vida del 0,12% (ver anexo I). A
estos niveles, el servicio sanitario del País Vasco se sitúa en la frontera marcada por las
funciones de producción de los servicios sanitarios que cuentan con eficiencia
operacional.
La eficiencia unificada, se consigue a través de los mismos ajustes que los propuestos
para la eficiencia operacional. Si observamos el anexo III, este servicio sanitario no
requiere ajustes para situarse en la frontera inferior, sólo los requiere para situarse en la
24
35
frontera superior y conseguir trabajar a un nivel de eficiencia unificada. Esta
coincidencia en los ajustes, se reitera, por la existencia de un área de convergencia hacia
los puntos proyectados en las fronteras superior e inferior marcados por las funciones de
producción de las DMUs eficientes.
Tanto para la eficiencia operacional como para la unificada, la tasa RTS es decreciente.
Esto implica que la disminución propuesta de los inputs, provocan una disminución
menos que proporcional de los outputs, pero en ningún caso un incremento como el
necesario para alcanzar el nivel de eficiencia.
En este caso la eficiencia unificada es superior a la eficiencia operacional e inferior a la
eficiencia sanitaria. Ello es debido a que la mejora introducida por las componentes
operacional y sanitaria de la eficiencia unificada sobre sus respectivas ineficiencias
operacional y sanitaria, es menor que la ineficiencia operacional por lo que es incapaz
de absorber ese nivel de ineficiencia, y aunque la mejora a nivel unificado, no la elimina
(ver tabla II). La ineficiencia sanitaria es nula, por lo que no necesita mejora.
- La Rioja.
En el caso del servicio sanitario de La Rioja, no tiene ni eficiencia operacional (0.924),
ni sanitaria (0.937) y por ende no tiene eficiencia unificada (0.884) (ver tabla I). Este
servicio sanitario se encuentra sobre dimensionado (ver anexo I). Para alcanzar la
eficiencia operacional, debe diminuir el gasto sanitario por habitante protegido en casi
un 12%, a la vez que reduce ligeramente los gastos destinados a la atención directa a los
ciudadanos (0.32%). Al mantener la esperanza de vida al nivel actual y ajustar los inputs
tal como se indica, esta organización consigue trabajar a un nivel operacionalmente
eficiente y situarse en la frontera de producción de las DMUs eficientes.
Para conseguir la eficiencia sanitaria, en cambio, se requiere el incremento de la
proporción de gastos destinados a conciertos (2,96%) y a formación de residentes en
(27,27%). Estos ajustes deben ir acompañados de una disminución de la tasa de
mortalidad por cada 100.000 habitantes de algo más del 3% para alcanzar la eficiencia
sanitaria (ver anexo II). A estos niveles el servicio sanitario de La Rioja se sitúa en la
frontera eficiente marcada por las funciones de producción de las DMUs sanitariamente
eficientes.
Los ajustes necesarios para situar al servicio sanitario riojano en la frontera inferior
marcada por las funciones de producción de las entidades que tienen eficiencia
unificada serán los mismos que los propuestos para alcanzar la eficiencia sanitaria (ver
anexo III). Nuevamente, se debe a que el punto proyectado en la frontera eficiente está
marcado por dos vectores que delimitan el área de convergencia desde donde deben
trasladarse los inputs y output-bad, y en el que se encuentran las funciones de
producción tanto cuando tratamos los datos desde el punto de vista de la eficiencia
sanitaria como unificada. Para alcanzar la eficiencia operacional o conseguir la
eficiencia operacional de la vertiente unificada de la eficiencia no se requieren ajustes,
por encontrarse en la frontera superior.
Hay que tener en cuenta que la tasas RTS es decreciente tanto si se estudia la eficiencia
operacional como unificada, lo que implica que la disminución propuesta en el input da
lugar a una disminución menos que proporcional del output, pero en definitiva a una
disminución y no un incremento como se recomienda. La tasa DTS, es creciente, tanto
para el estudio sanitario como unificado de la eficiencia, lo que complica aún más el
problema ya que el incremento recomendado para alcanzar el punto proyectado de la
frontera eficiente, provoca un incremento más que proporcional del output, en lugar de
25
36
la disminución recomendada. Todo esto implica que deben incluirse otras políticas de
ajustes que permitan la mejora de las eficiencias.
La eficiencia unificada se encuentra por debajo tanto del la eficiencia operacional como
de la sanitaria. Esto se debe a que la mejora introducida por las componentes
operacional y sanitaria de la ineficiencia unificada sobre sus respectivas ineficiencias
tratadas de forma independiente, no alcanzan el nivel de ineficiencia ni operacional ni
sanitario (ver tabla II), por lo que el tratamiento unificado de las eficiencias no es capaz
de absorber ninguna de las dos ineficiencias independientes, lo que afecta de forma
negativa al tratamiento unificado de las eficiencias en relación a las eficiencias
operacional y sanitaria.
- Ceuta.
Nuevamente la ciudad autónoma de Ceuta no cuenta ni con eficiencia operacional
(0.914), ni con eficiencia sanitaria (0.815), y por consiguiente ni con eficiencia
unificada (0.774) (ver tabla I). Para alcanzar la eficiencia operacional, el servicio
sanitario de Ceuta, manteniendo el nivel de gasto sanitario por habitante protegido que
tiene actualmente debe reducir levemente (0.75%) el gasto sanitario que destina
directamente a la atención de los ciudadanos a la vez que incrementa la esperanza de
vida (2.25%). Con estos niveles de inputs y output deseable, el sistema sanitario de
Ceuta se sitúa en la frontera marcada por las funciones de producción de las DMUs
operacionalmente eficientes.
La eficiencia sanitaria se consigue si se incrementan los gastos destinados a formación
de residentes en más de un 87% (disminución absoluta de 0,72%). Aun así, con estos
niveles de inputs no se consigue la eficiencia sanitaria, es necesario disminuir la tasa de
mortalidad por cada 100.000 habitantes en más de 92 personas (casi 16%) (ver anexo
II). Con esa proyección, el sistema sanitario de Ceuta se sitúa en la frontera marcada por
las funciones de producción de las entidades sanitariamente eficientes.
Nuevamente, los ajustes necesarios para alcanzar la eficiencia unificada, son similares a
los propuestos para alcanzar la eficiencia operacional y sanitaria y situar los niveles de
inputs y outputs de la eficiencia unificada en las fronteras superior e inferior de las
entidades que trabajan con una eficiencia unificada (ver anexo III).
En este caso la tasa RTS tanto a nivel operacional como unificado es decreciente, lo que
significa que una variación de los inputs provoca una variación del output deseable
menos que proporcional pero en el mismo sentido, lo cual no se ajusta a las necesidades
requeridas para alcanzar la eficiencia. La tasa DTS tanto para la eficiencia sanitaria
como para la unificada es creciente, lo que significa que una variación de los inputs
provoca una variación más que proporcional en el mismo sentido del output-bad, lo que
empeora el problema, al requerir el ajuste un incremento del input y una disminución
del output no-deseable.
La eficiencia unificada se encuentra por debajo tanto de la eficiencia operacional como
de la sanitaria. Ello se justifica porque la mejora introducida por las componentes
operacional y sanitaria de la eficiencia unificada, con respecto a sus respectivas
eficiencias, no es suficiente para superar la ineficiencia operacional que nos da la
función objetivo de la eficiencia operacional, ni tampoco para absorber la falta de
eficiencia sanitaria que nos marca la función objetivo de la eficiencia sanitaria (ver tabla
II).
- Melilla.
26
37
Melilla es la única de las dos ciudades autónomas que cuenta con un servicio sanitario
que consigue eficiencia operacional, eficiencia sanitaria y por lo tanto eficiencia
unificada (ver tabla I). Se sitúa en la frontera superior marcada por las funciones de
producción de las entidades eficientes para alcanzar un nivel de esperanza de vida
adecuado, en la frontera inferior marcadas por las funciones de producción eficientes
cuando se valora la eficiencia sanitaria y consigue situar la tasa de mortalidad a unos
niveles eficientes. Además para determinar la eficiencia unificada su función de
producción, junto con el resto de DMUs eficientes, marcan las fronteras superior e
inferior para alcanzar los niveles de outputs deseable y no-deseable cuando el estudio se
realiza de forma unificada, por lo que en ningún caso se precisa ningún tipo de ajuste
(ver anexos I, II y III). La falta de ineficiencias cuando se analizan las eficiencias
operacional y sanitaria por separado, da lugar a que no se requiera mejora alguna de las
eficiencia cuando el estudio se realiza de forma unificada (ver tabla II).
5. CONCLUSIONES
A lo largo del trabajo hemos llegado a una serie de conclusiones tanto a nivel teórico
como aplicadas a la eficiencia de los servicios sanitarios autonómicos.
Con respecto a las primeras concluimos en primer lugar que la eficiencia unificada es
superior a la eficiencia operacional e inferior la eficiencia sanitaria, siempre y cuando la
suma de la pérdida de ineficiencia operacional cuando se trata de forma unificada en
lugar de independiente y la pérdida de ineficiencia sanitaria cuando se trata de forma
unificada en lugar de independiente es menor a la ineficiencia sanitaria y superior a la
ineficiencia operacional.
En segundo lugar, la eficiencia unificada es mayor que la eficiencia sanitaria y menor
que la eficiencia operacional, siempre y cuando la suma de la pérdida de ineficiencia
operacional cuando se trata de forma unificada en lugar de independiente y la pérdida de
ineficiencia sanitaria cuando se trata de forma unificada en lugar de independiente, es
mayor o igual a la ineficiencia operacional y menor o igual a la ineficiencia sanitaria.
En tercer lugar, la eficiencia unificada es menor o igual a la eficiencia sanitaria, siempre
y cuando la diferencia entre la ineficiencia sanitaria y su vertiente unificada, añadida a
la diferencia entre la ineficiencia operacional y su vertiente unificada es menor o igual a
la ineficiencia operacional.
Y por último, la eficiencia unificada es menor o igual a la eficiencia operacional,
siempre y cuando el descenso de la ineficiencia operacional cuando se trata dentro de la
eficiencia unificada en lugar de independiente unido al descenso de la ineficiencia
sanitaria cuando se trata dentro de la eficiencia unificada en lugar de independiente, es
menor o igual a la ineficiencia sanitaria.
En el estudio que hemos realizado los sistemas sanitarios de las diecinueve autonomías
pueden agruparse en cinco bloques:
El primero de ellos, está formado por siete sistemas sanitarios que cuentan tanto con
eficiencia operacional, eficiencia sanitaria y eficiencia unificada. Este grupo lo
componen los servicios sanitarios de Aragón, Cantabria, Castilla-León, Cataluña,
Madrid, Navarra y Melilla. En todos ellos, la falta de ineficiencia tanto operacional
como sanitaria, motiva que se alcance la eficiencia unificada. Los servicios sanitarios de
estas CAs destinan un nivel de recursos públicos por habitante protegido y los
distribuye de forma correcta para conseguir unos niveles de esperanza de vida y una tasa
de mortalidad ajustada por la edad por cada 100.000 habitantes adecuados, y así situarse
en las fronteras eficientes superior e inferior, marcadas por las funciones de producción
27
38
eficientes, tanto cuando el estudio de las eficiencias se realiza de forma independiente,
como cuando se realiza de forma unificada.
El segundo grupo estaría formado por cuatro sistemas sanitarios que cuentan con
eficiencia operacional pero no con eficiencia sanitaria. En todos ellos, los niveles de
eficiencia unificada son inferiores a los niveles de eficiencia operacional y superiores a
los niveles de eficiencia sanitaria. Estamos hablando de los sistemas sanitarios de
Andalucía, Islas Baleares, Extremadura y Murcia. En estos casos la mejora incorporada
por las componentes operacional y sanitaria cuando el estudio se realiza de forma
unificada, es lo suficientemente grande como para superar la ineficiencia operacional
(que no existe), pero no lo es como para superar la ineficiencia sanitaria. Esto es así,
porque la reducción de ineficiencia operacional cuando ésta se estudia de forma
unificada y añadida a la reducción de la ineficiencia sanitaria cuando ésta se estudia de
forma unificada, es decir, la mejora que incorpora el estudio unificado de ambas
eficiencias, es inferior a la ineficiencia sanitaria y superior a la ineficiencia operacional
lo cual es evidente en este último caso ya que al contar con eficiencia operacional el
nivel de ineficiencia operacional es cero. En estos casos se recomiendan una serie de
proyecciones hacia la frontera inferior cuando se habla de eficiencia sanitaria y cuando
se habla de eficiencia unificada, frontera marcada por las funciones de producción de las
DMUs eficientes, proyecciones que implican además de la reducción del output nodeseable, el aumento de los inputs. En todos los casos las tasas DTS son crecientes, lo
que da lugar a que una variación de los inputs da lugar a un aumento más que
proporcional de los outputs en el mismo sentido. Esto va en contra de los ajustes
propuestos que proponen un incremento de los inputs acompañado de una disminución
del output-bad, por lo que la mejora de la eficiencia sanitaria debería llevarse a cabo a
través de una serie de políticas encaminadas a mejorar la eficiencia de los inputs como
podrían ser la mejora tecnológica, el incremento de la productividad de los
profesionales dedicados a la atención sanitaria directa, etc.
El tercer grupo lo conforma únicamente el sistema sanitario de la CA de Galicia cuya
eficiencia unificada se encuentra, igual que en el caso anterior por debajo de la
eficiencia operacional y por encima de la eficiencia sanitaria, pero no cuenta con
ninguna de ellas cuando el estudio se hace de forma independiente. No obstante, el
estudio unificado de las eficiencias incorpora una mejora de la eficiencia sobre la
eficiencia sanitaria y un empeoramiento de la misma sobre la eficiencia operacional al
encontrarse el margen de mejora de las componentes de las ineficiencias operacional y
sanitaria unificadas al mismo nivel de ineficiencia operacional y por debajo del nivel de
ineficiencia sanitaria. Por ello, se requiere de la aplicación de otra serie de políticas
encaminadas a la mejora de la eficiencia en la gestión de los recursos públicos
destinados a sanidad donde intervengan otras variables que escapan a este estudio, como
podría ser la mejora tecnológica, o el abaratamiento de los gastos sanitarios directos que
absorben la mayoría de los recursos públicos invertidos a través, por ejemplo, de la
reducción del gasto farmacéutico o de convenios con los laboratorios, o de mejora de la
productividad del personal sanitario.
El cuarto grupo estaría formado por los sistemas sanitarios de tres CAs que cuentan con
eficiencia sanitaria pero no operacional. Estos sistemas sanitarios son los de las CAs de
Asturias, Canarias y País Vasco. En este caso la eficiencia unificada es inferior a la
eficiencia sanitaria y superior a la eficiencia operacional. Ello se debe a que el margen
de mejora que incorporan las componentes unificadas de las eficiencias operacional y
sanitaria de forma conjunta al estudiar la eficacia unificada en relación a las
ineficiencias operacional y sanitaria, es mayor que la ineficiencia sanitaria e inferior a la
28
39
ineficiencia operacional. Desde el punto de vista de la mejora de las eficiencias, al no
existir en este grupo ineficiencia sanitaria no es posible reducirla, por lo que el estudio
unificado de la eficiencia, mejora desde el punto de vista operacional pero empeora
desde el punto de vista sanitario. En este caso las políticas que deben aplicarse deben
basarse fundamentalmente en la mejora de la productividad en aras a dimensionar mejor
la organización, para que realice un uso más eficiente de los recursos y obtenga con los
mismos o menores inputs una cantidad adecuada de output-good. Entre estas medidas
podrían encontrarse la mejora de la productividad del personal sanitario como a través
de políticas de objetivos o incentivos, o la rebaja en los gastos farmacéuticos con
medidas de gestión de inventario, convenios con laboratorios o subastas de
medicamentos, y de estructura como la revisión de contratos energéticos (luz, teléfono,
etc.).
El quinto grupo está formado cuatro sistemas sanitarios, los de Castilla-La Mancha,
Comunidad Valenciana, La Rioja y Ceuta, ninguno de ellos tiene eficiencia operacional
ni eficiencia sanitaria. En este caso la eficiencia unificada es inferior a ambas eficiencias
independientes, ello se debe a que los márgenes de mejora en la eficiencia por parte de
las componentes operacional y sanitaria de la eficiencia unificada sobre sus respectivas
eficiencias, no alcanzan ni el nivel de ineficiencia operacional ni el de ineficiencia
sanitaria, por lo que no es posible que la mejora incorporada por la eficiencia unificada
sea capaz de absorber ninguno de ellos.
Excepto en el primero de los grupos, que no lo requiere, para el resto de servicios
sanitarios se recomiendan una serie de ajustes con la intención de alcanzar la eficiencia,
no obstante, dichos ajustes conllevan unas tasas de rendimientos a escala para los
outputs deseables y unas tasas de daños a escala para los outputs no-deseables, que
suponen una variabilidad creciente, decreciente o constante de las variables, pero en el
mismo sentido para los inputs y los outputs, lo que va en contra de los ajustes
propuestos para alcanzar los diferentes tipos de eficiencia, lo que hace necesario aplicar
otro tipo de políticas económicas o de gestión que permitan la mejora de la eficiencia.
En definitiva, la eficiencia de las organizaciones en la gestión de sus recursos, estudiada
de forma independiente en función de que los outputs sean deseables o no-deseables y
estudiada de forma unificada teniendo en cuenta las variaciones necesarias de todos los
tipos de outputs, puede ser explicada en base a la ineficiencia en la gestión de los
recursos.
BIBLIOGRAFIA
ALÍ, A. I. y SEIFORD, L. M. (1993): “The mathematical programming approach to
efficiency analysis”. H. O. FRIED, C.A.K. LOVELL, S.S. SCHMIDT (eds.), en The
measurement of productive efficiency, Oxford University Press, New York.
CAMPOS LUCENA, M.S. & VELASCO MORENTE F. (2013) “The efficiency of Public
Television in Spain: Application of the DEA Measurement Model”, Revista de Ciencias
Sociales, 19 (2), 363-378.
COELLI, T., (1996): “A guide to DEAP 2.1. A data envelopment analysis (computer)
program”, CEPA Working Paper 96/8, Department of Econometrics, University of New
England, Armidale, disponible en http://www.owlnet.rice.edu/~econ380/DEAP.PDF.
COELLI, T. (1998): “A multi-stage methodology for the solution of orientated DEA
models”. Operations Research Letters, 23, 143-149 .
29
40
COOPER, W., SEIFORD, L. M. y KAROU, T. (2007): “Data envelopment analysis. A
comprehensive text with Models, Applications, References and DEA-solver software”.
Springer, New York.
FARRELL, M. J. (1957): “The measurement of productive efficiency”. Journal of the Royal
Statistical Society (A), 120, 3, 253-290.
GONZÁLEZ RODRÍGUEZ, M.R., VELASCO MORENTE, F. Y GONZÁLEZ
ABRIL, L. (2010): “La eficiencia del sistema de protección social español en la reducción de la pobreza”.
Papeles de población, 16, 64, 123-154.
INCLASNS (2012): Base de datos de Indicadores Clave del Servicio Nacional de Salud del
año
2012,
http://www.msssi.gob.es/estadEstudios/estadisticas/sisInfSanSNS/inclasSNS_DB.htm
KOOPMANS T. C., (1951): “Efficient allocation of resources”. Econometrica, 19, 4,
455-465.
LOWELL, C. A. K., y MUÑIZ, M. (2003): “Eficiencia y productividad en el sector público: temas
dominantes en la literatura”. Papeles de Economía Española, 95, 47-65.
RAMANATHAN, R. (2003): “An Introduction to Data Envelopment Analysis. A Tool For
Performance Measurement”. Sage Publications.
SMITH, P. y M. GODDARD, (2003): “Los indicadores de gestión en el sector público: fortaleza y
debilidades”. Papeles de Economía Española, núm. 95, 35-46.
SUEYOSHI, T & GOTO, M. (2011) “Measurement of Returns to Scale and Damages to
Scale for DEA-based operational and environmental assessment: How to manage
desirable (good) and undesirable (bad) outputs?”, European Journal of Operational
Research 211, 76-89.
30
41
ANEXO I: EFICIENCIAS OPERACIONALES, PROYECCIONES.
EOP
INPUT
1
PROY.
INPUT
1
Dif.
%
INPU
T
2
PROY
.
INPU
T
2
Dif.
%
INPU
T
3
PROY
.
INPU
T
3
Andalusia
1
1.184,14
1.184,14
0,00
0,00%
4,73
4,73
0,00
0,00%
2,08
2,08
Aragon
1
1.609,50
1.609,50
0,00
0,00%
3,99
3,99
0,00
0,00%
1,38
1,38
0,759 1.641,19
1.271,63
369,56
22,52
%
7,19
7,19
0,00
0,00%
1,65
1,58
nº
CCAA
1
2
3
Asturias
4
Balearic
Islands
5
Canary
Islands
6
Cantabria
1
7
Castile-Leon
1
8
Castile-La
Mancha
9
Catalonia
1
0
1
1
1
2
1
3
1
4
1
5
1
6
1
7
1
Valencian
Community
Extremadura
Galicia
1.180.54
1.180.54
0,00
0,00%
8,86
8,86
0,00
0,00%
1,27
1,27
0,846 1.354,67
1
1.183,57
171,10
12,63
%
10,47
9,09
1,38
13,16
%
1,52
1,26
1.341,19
1.341,19
0,00
0,00%
4,50
4,50
0,00
0,00%
2,58
2,58
1.387,27
1.387,27
0,00
0,00%
5,07
5,07
0,00
0,00%
1,98
1,98
0,910 1.512,34
1.324,83
187,51
12,40
%
6,74
6,74
0,00
0,00%
1,77
1,66
1.380,87
1.380,87
0,00
0,00%
24,21
24,21
0,00
0,00%
0,92
0,92
0,936 1.361,70
1
1.328,75
32,95
2,42%
6,58
6,58
0,00
0,00%
1,58
1,58
1.625,03
1.625,03
0,00
0,00%
4,29
4,29
0,00
0,00%
1,32
1,32
0,980 1.337,83
1
1.310,21
27,62
2,06%
5,63
5,63
0,00
0,00%
1,78
1,78
Madrid
1
1.371,83
1.371,83
0,00
0,00%
8,48
8,48
0,00
0,00%
2,20
2,20
Murcia
1
1.622,13
1.622,13
0,00
0,00%
7,18
7,18
0,00
0,00%
0,69
0,69
Navarra
1
1.574,64
1.574,64
0,00
0,00%
7,60
7,60
0,00
0,00%
1,42
1,42
0,880 1.661,47
1.412,04
249,43
6,96
6,96
0,00
0,00%
1,70
1,59
Rioja, La
0,924 1.487,94
1.311,87
176,07
Ceuta
0,914 1.550,41
1.550,41
0,00
Basque
Country
15,01
%
11,83
%
0,00%
7,34
7,34
0,00
0,00%
1,54
1,54
6,30
6,30
0,00
0,00%
0,82
0,82
31
Dif.
0,0
0
0,0
0
0,0
7
0,0
0
0,2
6
0,0
0
0,0
0
0,1
1
0,0
0
0,0
0
0,0
0
0,0
0
0,0
0
0,0
0
0,0
0
0,1
1
0,0
0
0,0
%
INPU
T
4
PROY
.
INPU
T
4
0,00%
92,26
92,26
0,00%
93,43
93,43
4,07%
90,91
90,15
0,00%
88,09
88,09
16,80
%
87,85
87,85
0,00%
92,53
92,53
0,00%
92,76
92,76
6,38%
89,97
89,97
0,00%
72,22
72,22
0,00%
91,11
90,80
0,00%
91,46
91,46
0,00%
91,70
91,70
0,00%
90,03
90,03
0,00%
88,91
88,91
0,00%
85,74
85,74
6,72%
87,89
87,89
0,00%
89,67
89,39
0,00%
91,93
91,24
Dif.
%
0,0
0
0,0
0
0,7
6
0,0
0
0,00
%
0,00
%
0,84
%
0,00
%
0,0
0
0,0
0
0,0
0
0,0
0
0,0
0
0,3
1
0,0
0
0,0
0
0,0
0
0,0
0
0,0
0
0,0
0
0,2
8
0,6
0,00
%
0,00
%
0,00
%
0,00
%
0,00
%
0,34
%
0,00
%
0,00
%
0,00
%
0,00
%
0,00
%
0,00
%
0,32
%
0,75
OUTPU
T
Good
PROY.
OUTPU
T
Good
Dif.
%
81,03
81,03
0,00
0,00%
82,57
82,57
0,00
0,00%
81,35
83,01
1,66
-2,03%
82,71
82,71
0,00
0,00%
81,76
82,71
0,95
-1,16%
82,58
82,58
0,00
0,00%
83,38
83,38
0,00
0,00%
82,97
82,97
0,00
0,00%
82,77
82,77
0,00
0,00%
81,89
82,97
1,08
-1,32%
81,82
81,82
0,00
0,00%
82,21
82,41
0,20
-0,24%
84,05
84,05
0,00
0,00%
81,99
81,99
0,00
0,00%
83,84
83,84
0,00
0,00%
82,80
82,90
0,10
-0,12%
83,11
83,11
0,00
0,00%
79,54
81,33
-
-2,25%
42
8
1
9
Melilla
1
1.585,28
1.585,28
0,00
0,00%
5,16
5,16
0,00
0,00%
0,68
0,68
0
0,0
0
0,00%
93,98
93,98
9
0,0
0
%
0,00
%
1,79
80,00
80,00
0,00
0,00%
ANEXO II: EFICIENCIA SANITARIA, PROYECCIONES.
ESan
INPUT
1
PROY.
INPUT
1
Andalusia
Aragon
Asturias
0,788
1
1
1.184,14
1.609,50
1.641,19
1.379,84
1.609,50
1.641,19
-195,70 -16,53%
0,00
0,00%
0,00
0,00%
4
Balearic
Islands
0,725
1.180,54
1.372,05
-191,51 -16,22%
5
Canary
Islands
1
1.354,67
1.354,67
0,00
0,00%
6
Cantabria
1
1.341,19
1.341,19
0,00
0,00%
7
Castile-Leon
1
1.387,27
1.387,27
0,00
8
Castile-La
Mancha
0,966
1.512,34
1.512,34
0,00
9
Catalonia
10
Valencian
Community
nº
CCAA
1
2
3
Dif.
%
PROY.
INPUT
INPUT
2
2
4,73
3,99
7,19
Dif.
PROY.
INPUT
INPUT
3
3
%
Dif.
%
PROY.
INPUT
INPUT
4
4
Dif.
%
PROY.
OUTPUT
OUTPUT
B
B
Dif.
%
5,61
3,99
7,19
-0,88 -18,53%
0,00 0,00%
0,00 0,00%
2,08
1,38
1,65
2,08
1,38
1,65
0,00
0,00
0,00
0,00%
0,00%
0,00%
92,26
93,43
90,91
92,26
93,43
90,91
0,00
0,00
0,00
0,00%
0,00%
0,00%
541,10
469,61
522,64
438,79
469,61
522,64
102,31 18,91%
0,00
0,00%
0,00
0,00%
8,86
8,86
0,00
0,00%
1,27
2,17
-0,90
-70,79%
88,09
89,60
-1,51 -1,71%
486,92
414,18
72,74
14,94%
10,47
10,47
0,00
0,00%
1,52
1,52
0,00
0,00%
87,85
87,85
0,00
0,00%
509,37
509,37
0,00
0,00%
4,50
4,50
0,00
0,00%
2,58
2,58
0,00
0,00%
92,53
92,53
0,00
0,00%
477,49
477,49
0,00
0,00%
0,00%
5,07
5,07
0,00
0,00%
1,98
1,98
0,00
0,00%
92,76
92,76
0,00
0,00%
439,52
439,52
0,00
0,00%
0,00%
6,74
7,13
-0,39
-5,75%
1,77
1,88
-0,11
-6,20%
89,97
89,97
0,00
0,00%
456,09
440,29
15,80
3,46%
1
1.380,87
1.380,87
0,00
0,00%
24,21
24,21
0,00
0,00%
0,92
0,92
0,00
0,00%
72,22
72,22
0,00
0,00%
462,59
462,59
0,00
0,00%
0,837
1.361,70
1.447,33
-85,63
-6,29%
6,58
7,05
-0,47
-7,20%
1,58
1,94
-0,36
-22,76%
91,11
91,11
0,00
0,00%
502,34
430,97
71,37
14,21%
11 Extremadura 0,926
1.625,03
1.625,03
0,00
0,00%
4,29
5,08
-0,79 -18,31%
1,32
1,50
-0,18
-13,68%
91,46
91,46
0,00
0,00%
506,48
466,77
39,71
7,84%
12 Galicia
13 Madrid
1.337,83
1.371,83
1.488,57
1.371,83
5,63
8,48
6,27
8,48
-0,64 -11,45%
0,00 0,00%
1,78
2,20
1,80
2,20
-0,02
0,00
-0,97%
0,00%
91,70
90,03
91,70
90,03
0,00
0,00
0,00%
0,00%
487,68
412,98
440,80
412,98
46,88
0,00
9,61%
0,00%
0,873
1
-150,74 -11,27%
0,00
0,00%
32
43
14 Murcia
15 Navarra
0,858
1
1.622,13
1.574,64
Basque
16
Country
1.622,13
1.574,64
0,00
0,00
0,00%
0,00%
7,18
7,60
7,18
7,60
0,00
0,00
0,00%
0,00%
0,69
1,42
1,74
1,42
-1,05 -152,90%
0,00
0,00%
88,91
85,74
88,91
85,74
0,00
0,00
0,00%
0,00%
497,90
422,87
471,91
422,87
25,99
0,00
5,22%
0,00%
1
1.661,47
1.661,47
0,00
0,00%
6,96
6,96
0,00
0,00%
1,70
1,70
0,00
0,00%
87,89
87,89
0,00
0,00%
463,26
463,26
0,00
0,00%
17 Rioja, La
18 Ceuta
19 Melilla
0,937
0,815
1
1.487,94
1.550,41
1.585,28
1.487,94
1.550,41
1.585,28
0,00
0,00
0,00
0,00%
0,00%
0,00%
7,34
6,30
5,16
7,56
6,30
5,16
-0,22
0,00
0,00
-2,96%
0,00%
0,00%
1,54
0,82
0,68
1,96
1,54
0,68
-0,42
-0,72
0,00
-27,27%
-87,65%
0,00%
89,67
91,93
93,98
89,67
91,93
93,98
0,00
0,00
0,00
0,00%
0,00%
0,00%
448,44
581,36
573,06
434,62
489,19
573,06
13,82
92,17
0,00
3,08%
15,85%
0,00%
Dif.
%
Dif.
%
ANEXO III: EFICIENCIAS UNIFICADAS, PROYECCIONES.
EOP
INPUT
1
PROY.
INPUT
1
PROY.
INPUT
INPUT
2
2
Dif.
%
0,824 1.184,14 1.184,14
1
1.609,50 1.609,50
0,799 1.641,19 1.271,63
0,00
0,00
369,56
0,00%
0,00%
22,52%
4,73
3,99
7,19
Balearic
Islands
0,771 1.180,54 1.180,54
0,00
0,00%
5
Canary
Islands
0,872 1.354,67 1.183,57
171,10
6
7
Cantabria
Castile-Leon
0,00
0,00
8
Castile-La
Mancha
9
Catalonia
10
Valencian
Community
nº
CCAA
1
2
3
Andalusia
Aragon
Asturias
4
1
1
1.341,19 1.341,19
1.387,27 1.387,27
0,897 1.512,34 1.324,83
PROY.
INPUT
INPUT
3
3
PROY.
INPUT
INPUT
4
4
PROY.
OUTPUT
OUTPUT
Good
Good
Dif.
%
Dif.
%
4,73
3,99
7,19
0,00
0,00
0,00
0,00%
0,00%
0,00%
2,08
1,38
1,65
2,08
1,38
1,58
0,00
0,00
0,07
0,00%
0,00%
4,07%
92,26
93,43
90,91
92,26
93,43
90,15
0,00
0,00
0,76
0,00%
0,00%
0,84%
81,03
82,57
81,35
81,03
82,57
83,01
0,00
0,00
-1,66
0,00%
0,00%
-2,03%
8,86
8,86
0,00
0,00%
1,27
1,27
0,00
0,00%
88,09
88,09
0,00
0,00%
82,71
82,71
0,00
0,00%
12,63%
10,47
9,09
1,38
13,16%
1,52
1,26
0,26
16,80%
87,85
87,85
0,00
0,00%
81,76
82,71
-0,95
-1,16%
0,00%
0,00%
4,50
5,07
4,50
5,07
0,00
0,00
0,00%
0,00%
2,58
1,98
2,58
1,98
0,00
0,00
0,00%
0,00%
92,53
92,76
92,53
92,76
0,00
0,00
0,00%
0,00%
82,58
83,38
82,58
83,38
0,00
0,00
0,00%
0,00%
0,00%
187,51
12,40%
6,74
6,74
0,00
0,00%
1,77
1,66
0,11
6,38%
89,97
89,97
0,00
0,00%
82,97
82,97
0,00
1.380,87 1.380,87
0,00
0,00%
24,21
24,21
0,00
0,00%
0,92
0,92
0,00
0,00%
72,22
72,22
0,00
0,00%
82,77
82,77
0,00
0,00%
0,811 1.361,70 1.328,75
32,95
2,42%
6,58
6,58
0,00
0,00%
1,58
1,58
0,00
0,00%
91,11
90,80
0,31
0,34%
81,89
82,97
-1,08
-1,32%
11 Extremadura 0,938 1.625,03 1.625,03
0,00
0,00%
4,29
4,29
0,00
0,00%
1,32
1,32
0,00
0,00%
91,46
91,46
0,00
0,00%
81,82
81,82
0,00
0,00%
1
33
44
12
13
14
15
Galicia
Madrid
Murcia
Navarra
0,878
1
0,882
1
1.310,21
1.371,83
1.622,13
1.574,64
27,62
0,00
0,00
0,00
2,06%
0,00%
0,00%
0,00%
5,63
8,48
7,18
7,60
5,63
8,48
7,18
7,60
0,00
0,00
0,00
0,00
0,00%
0,00%
0,00%
0,00%
1,78
2,20
0,69
1,42
1,78
2,20
0,69
1,42
0,00
0,00
0,00
0,00
0,00%
0,00%
0,00%
0,00%
91,70
90,03
88,91
85,74
91,70
90,03
88,91
85,74
0,00
0,00
0,00
0,00
0,00%
0,00%
0,00%
0,00%
82,21
84,05
81,99
83,84
82,41
84,05
81,99
83,84
-0,20
0,00
0,00
0,00
-0,24%
0,00%
0,00%
0,00%
16
Basque
Country
0,900 1.661,47 1.412,04
249,43
15,01%
6,96
6,96
0,00
0,00%
1,70
1,59
0,11
6,72%
87,89
87,89
0,00
0,00%
82,80
82,90
-0,10
-0,12%
0,884 1.487,94 1.311,87
0,774 1.550,41 1.550,41
1
1.585,28 1.585,28
176,07
0,00
0,00
11,83%
0,00%
0,00%
7,34
6,30
5,16
7,34
6,30
5,16
0,00
0,00
0,00
0,00%
0,00%
0,00%
1,54
0,82
0,68
1,54
0,82
0,68
0,00
0,00
0,00
0,00%
0,00%
0,00%
89,67
91,93
93,98
89,39
91,24
93,98
0,28
0,69
0,00
0,32%
0,75%
0,00%
83,11
79,54
80,00
83,11
81,33
80,00
0,00
-1,79
0,00
0,00%
-2,25%
0,00%
Dif.
%
Dif.
%
Dif.
%
Dif.
%
Dif.
%
2,08
1,38
1,65
0,00
0,00
0,00
0,00%
0,00%
0,00%
92,26
93,43
90,91
0,00
0,00
0,00
0,00%
0,00%
0,00%
17 Rioja, La
18 Ceuta
19 Melilla
ESan
1.337,83
1.371,83
1.622,13
1.574,64
INPUT
1
PROY.
INPUT
1
nº
CCAA
1
2
3
Andalusia
Aragon
Asturias
0,824 1.184,14 1.379,84
1
1.609,50 1.609,50
0,799 1.641,19 1.641,19
-195,70 -16,53%
0,00
0,00%
0,00
0,00%
4
Balearic
Islands
0,771 1.180,54 1.372,05
-191,51 -16,22%
5
Canary
Islands
0,872 1.354,67 1.354,67
6
7
Cantabria
Castile-Leon
8
Castile-La
Mancha
9
Catalonia
10
Valencian
Community
11
12
13
14
15
Extremadura 0,938 1.625,03 1.625,03
Galicia
0,878 1.337,83 1.488,57
Madrid
1
1.371,83 1.371,83
Murcia
0,882 1.622,13 1.622,13
Navarra
1
1.574,64 1.574,64
16
Basque
Country
17 Rioja, La
18 Ceuta
PROY.
INPUT
INPUT
2
2
4,73
3,99
7,19
5,61
3,99
7,19
PROY.
INPUT
INPUT
3
3
-0,88 -18,53%
0,00 0,00%
0,00 0,00%
2,08
1,38
1,65
PROY.
INPUT
INPUT
4
4
92,26
93,43
90,91
PROY.
OUTPUT
OUTPUT
B
B
541,10
469,61
522,64
438,79
469,61
522,64
102,31 18,91%
0,00
0,00%
0,00
0,00%
8,86
8,86
0,00
0,00%
1,27
2,17
-0,90
-70,79%
88,09
89,60
-1,51 -1,71%
486,92
414,18
72,74
14,94%
0,00
0,00%
10,47
10,47
0,00
0,00%
1,52
1,52
0,00
0,00%
87,85
87,85
0,00
0,00%
509,37
509,37
0,00
0,00%
1.341,19 1.341,19
1.387,27 1.387,27
0,00
0,00
0,00%
0,00%
4,50
5,07
4,50
5,07
0,00
0,00
0,00%
0,00%
2,58
1,98
2,58
1,98
0,00
0,00
0,00%
0,00%
92,53
92,76
92,53
92,76
0,00
0,00
0,00%
0,00%
477,49
439,52
477,49
439,52
0,00
0,00
0,00%
0,00%
0,897 1.512,34 1.512,34
0,00
0,00%
6,74
7,13
-0,39
-5,75%
1,77
1,88
-0,11
-6,20%
89,97
89,97
0,00
0,00%
456,09
440,29
15,80
3,46%
0,00
0,00%
24,21
24,21
0,00
0,00%
0,92
0,92
0,00
0,00%
72,22
72,22
0,00
0,00%
462,59
462,59
0,00
0,00%
-85,63
-6,29%
6,58
7,05
-0,47
-7,20%
1,58
1,94
-0,36
-22,76%
91,11
91,11
0,00
0,00%
502,34
430,97
71,37
14,21%
0,00
0,00%
-150,74 -11,27%
0,00
0,00%
0,00
0,00%
0,00
0,00%
4,29
5,63
8,48
7,18
7,60
5,08
6,27
8,48
7,18
7,60
-0,79 -18,31%
-0,64 -11,45%
0,00 0,00%
0,00 0,00%
0,00 0,00%
1,32
1,78
2,20
0,69
1,42
1,50
1,80
2,20
1,74
1,42
-0,18 -13,68%
-0,02 -0,97%
0,00
0,00%
-1,05 -152,90%
0,00
0,00%
91,46
91,70
90,03
88,91
85,74
91,46
91,70
90,03
88,91
85,74
0,00
0,00
0,00
0,00
0,00
0,00%
0,00%
0,00%
0,00%
0,00%
506,48
487,68
412,98
497,90
422,87
466,77
440,80
412,98
471,91
422,87
39,71
46,88
0,00
25,99
0,00
7,84%
9,61%
0,00%
5,22%
0,00%
1
1
1
1.380,87 1.380,87
0,811 1.361,70 1.447,33
0,900 1.661,47 1.661,47
0,00
0,00%
6,96
6,96
0,00
0,00%
1,70
1,70
0,00
0,00%
87,89
87,89
0,00
0,00%
463,26
463,26
0,00
0,00%
0,884 1.487,94 1.487,94
0,774 1.550,41 1.550,41
0,00
0,00
0,00%
0,00%
7,34
6,30
7,56
6,30
-0,22
0,00
-2,96%
0,00%
1,54
0,82
1,96
1,54
-0,42
-0,72
-27,27%
-87,65%
89,67
91,93
89,67
91,93
0,00
0,00
0,00%
0,00%
448,44
581,36
434,62
489,19
13,82
92,17
3,08%
15,85%
34
45
19 Melilla
1
1.585,28 1.585,28
0,00
0,00%
5,16
5,16
0,00
0,00%
35
0,68
0,68
0,00
0,00%
93,98
93,98
0,00
0,00%
573,06
573,06
0,00
0,00%
XVI Jornadas de ARCA
46
47
Un análisis de la eficiencia de la UE 27 a través de la huella de carbono con DEA
M.S. Campos Lucenaa, M.T. Sanz Díazb, F. Velasco Morentec, Rocío Yñiguez Ovandob
a
Departamento de Contabilidad y Economía Financiera
b
Departamento de Análisis Económico y Economía Política
c
Departamento de Economía Aplicada
Universidad de Sevilla
{mscampos,mtsanz,velasco,ovando}@us.es
Abstract
Una de las causas del cambio climático son las
emisiones de gases de efecto invernadero, su reducción se ha convertido en uno de los objetivos
prioritarios de la UE-28, a través de políticas medioambientales orientadas a cumplir los objetivos
marcados a nivel internacional. La aportación de
nuestro artículo es la aplicación del DEA (Data
Envelopment Analysis), aplicado a variables inputs y outputs que se pueden considerar aceptables y no aceptables con lo que se puede hacer un
estudio de la eficiencia operacional (inputs y outputs good) y medioambiental (inputs y outputs
bad), de forma individual y conjunta, de los 27
países de la UE, con el objeto de indicar a cada
país el modelo de sus socios europeos más conveniente para mejorar su nivel de eficiencia en la
doble dimensión considerada. Se realiza, además
un estudio de la eficiencia operacional y ambiental de forma unificada. Se analiza la eficiencia
medioambiental de los países de la UE-27 desde
el enfoque consumidor, en el año 2008, por ser el
primer año del compromiso de Kioto, determinando, asimismo los rendimientos y daños a escala de esos países y cuál debe ser su tendencia para
mejorar su eficiencia. Los resultados muestran
que al analizar la eficiencia unificada se reduce el
número de países eficientes (Bulgaria, Alemania,
Francia, Luxemburgo y Malta), en comparación
con el análisis por separado de la eficiencia operacional y medioambiental
Palabras clave: DEA no orientado, eficiencia opera-
cional, eficiencia ambiental, eficiencia unificada
XVI Jornadas de ARCA
48
49
Eco-driving: Energy Saving based on driver behavior
V. Corcoba Magaña and M. Muñoz Organero
Dpto. de Ingeniería Telemática
Universidad Carlos III
vcorcoba@it.uc3m.es
1
Introduction
The growth in the number of vehicles in circulation has experienced a strong increase in the last 20 years. Figure 1 captures the number of vehicles since 1970 in US, Australia, and
OCDE. The widespread use of the automobile has had very
positive effects on the economy of the countries. However,
they have also led to major problems due to the pollution produced and the amount of energy required. On the other hand,
most of the vehicles employ hydrocarbons, which are not
available in all regions, causing energy dependencies between countries. In addition, its extraction has a very large
impact on the environment.
The vehicles have become an important problem for governments and residents who suffer from respiratory diseases
caused by greenhouses emissions [Caiazzo et al., 2013]. In
order to avoid these problems, governments have developed
regulations to control the emissions from vehicles. The drivers have also begun to require efficient vehicles due to the
800
600
400
200
0
1970
1980
1982
1984
1986
1988
1990
1992
1994
1996
1998
2000
2002
2004
Number of vehicles
(Millions)
The number of vehicles has grown in recent years.
As a result, it has increased the fuel consumption
and the emission of gaseous pollutants. The emission of gaseous pollutants causes more deaths than
traffic accidents. On the other hand, the energy resources are limited and the increase in demand
causes them even more expensive. In addition, the
percentage of old vehicles is very high. Eco-driving
is a good solution in order to minimize the fuel consumption because it is independent of the vehicle
age. In this paper, a driving assistant is presented.
This solution allows the user acquires knowledge
about eco-driving. Unlike other solutions, our proposal adapts the recommendations to the user profile. It also provides information in advance such as:
optimal average speed, anomalous events, deceleration pattern, and so on. These recommendations prevent that the user performs inefficient actions. In
these type of systems, motivation is very important.
Drivers lose the interest over time. To solve this
problem, we employ gamification techniques that
contribute to avoid drivers coming back to their previous driving habits
increase in fuel prices. Currently, the fuel consumption is a
very important factor to buy a vehicle. All this has caused
manufacturers to introduce improvements in vehicles in order
to minimize the fuel consumption such as: engine optimization, vehicle weight reduction, hybrid engines, and aerodynamic improvements. However, these measures are insufficient because the percentage of older vehicles is still very
high.
Year
N. America/Amér. N.
Australia/Australie-NZ
OECD/OCDE
Figure 1. Number of vehicles since 1970. Source: OCDE.
Number of vehicles
(Mullions)
Abstract
5
4
3
2
1
0
Year of manufacture
Figure 2. Age of vehicles in Spain. Source: DGT.
50
Figure 3. Architecture of Eco-Driving Assistant.
Fuel consumption depends on the vehicle, the environment
and the behavior of the driver. Recently, a method called
"Eco-Driving" has gained popularity. This driving technique
allows us to save fuel. It is based on the optimization of the
parameters that the user controls such as: speed, acceleration,
deceleration and gear. Fuel saving is achieved by minimizing
the energy losses. This method to improve fuel consumption
and reduce the emission of greenhouse gases is very useful
because it is independent of the vehicle technology. However, the driver needs to know about efficient driving rules.
This paper is focused on the need to learn how to drive
efficiently following a set of rules, based on physics, which
reduce unnecessary energy demands. In this work, we propose the use of an assistant who evaluates the driver behavior
from the point of view of efficiency, and recommends improvements in order to save fuel. Furthermore, unlike other
proposals, the system provides information about the nearby
environment. Therefore, the user can take decisions in advance. This information is very important because the key to
"eco-driving" is the driver's ability to predict the road state in
the near future. The other main objective is to develop methods to motivate the user for driving efficiently, since many
previous studies demonstrates that the driver tends to return
to their previous driving habits, even after having received
training on "eco-driving".
2
State of the art
Eco-driving is a driving technique that saves fuel regardless
of vehicle technology, and which is based on the control of
the variables such as: speed, gear, acceleration, and deceleration. We can save up to 25% [Barbe and Boy, 2006] applying this driving technique. Although, this percentage depends
on the driver skill, the vehicle type and the environment. For
example, in hybrid vehicles the percentage of saving is less
because an amount of the wasted energy is used in order to
recharge the battery of the vehicle [Dardanelly et al., 2012].
In the literature, there are many works which demonstrate
that this driving technique reduces fuel consumption and the
emission of gaseous pollutants considerably. In [Van Mierlo
et al., 2004] the authors analyzed the influence of the driving
habits and the traffic on the fuel consumption and the emission of gaseous pollutants. Their conclusions were that drivers can save between 5% and 25% fuel following the ecodriving tips.
This driving technique has also positive effects on safety.
In [Haworth and Symmons, 2001] the results revealed that
learning programs about efficient driving can decrease traffic
accidents around 35%, and the emission of polluting gases
between 25% and 50%. In another study about the effectiveness of the eco-driving courses for vans [Hedges and Moss,
1996], a decrease of traffic accidents by 40% and an increase
on the fuel efficiency by 50% was obtained.
The benefit of efficient driving training courses has been
demonstrated on numerous occasions. However, several authors have observed that the positive effects of this learning
are lost over time [af Wåhlberg, 2007] [Johansson et al.,
2003].
Drivers tend to return to their previous driving habits when
there is not motivation method. In the literature, there are
many proposals to provide eco-driving tips and several types
of feedback [Isler et al., 2010]. It has revealed that these solutions can influence positively the current driver behavior
and long term [Van der Voort et al., 2001].
In the eco-driving, there are many research topics that can
be classified into five groups:
 Identification of variables that affect fuel consumption
 Models to estimate the fuel consumption
 Control models
 Methods to motivate the driver
 User interfaces
51
2.1 Fuel Estimation Models
2.3 Driver Motivation
An essential part of efficient driving is to identify what factors influence on fuel consumption [Hiraoka and Terakado,
2009]. These variables are those considered in the laboratory
to estimate the fuel consumption. One of the first proposals
is still used to certify the vehicles. Afterwards, other authors
such as [André, 1996] [Fomunung et al., 1999] have increased the number of variables.
Following this research line, [Ericsson, 2001] determines
that we must avoid sudden accelerations and high power demand in order to minimize fuel consumption. Similarly, [Johansson et al., 2003 concluded that there are certain characteristics of behavior while driving that are strongly correlated
with fuel consumption. According to this author, drivers must
avoid unnecessary stops, slow abruptly and driving at high
speed in order to decrease energy demand. Also, they highlighted that it is important to not change gear frequently due
to energy losses, and that has to recover then accelerating.
On the other hand, it is also important to know what variables affect safety. [Haworth and Symmons, 2001] identified
these factors. The authors concluded that the reduction of vehicle speed, the choice of an optimal route, and the smoothly
driving have positive effects on both: fuel consumption and
safety. However, eco-driving tips such as driving at constant
speed can cause traffic accidents.
A lot of works have demonstrated that users tend to return
to their previous driving habits, causing a deterioration in efficiency over time [Onoda, 2009]. [Rolim et al., 2003] discuss
the impact of the eco-driving lessons. The results showed a
decrease in the percentage of sudden acceleration, excessive
vehicle speed and fuel consumption (4.8%). However, as
other authors said, they conclude that these improvements
could be temporary in the case that the user does not receive
continuous feedback. New technologies, such as mobile devices and social networks, allow us to develop solutions to
encourage the user to drive efficiently [Trommer and Höltl,
2011] [Ryosuke and Yasushide, 2010].
Vehicle manufacturers are also including in their vehicles
driving assistants to help the user in order to change the driving habits. For example, Ford Focus 2013 included an assistant that evaluates whether the driver shifts gears properly,
and if he or she avoids accelerating and braking sharply.
Other similar examples are: Garmin Mechanic [Garmin,
2014], Torque [Torque, 2014] and Honda Eco-Assist
[Torque, 2014].
The social networking awareness and behavior can also
positively influence the driver’s motivation to save fuel. A
method for utilizing fuel consumption data in an incentive
system for the Tampere City Transport based on sharing individual driver’s average fuel consumption in a specific
group compared to the average fuel consumption of all drivers in that specific group was proposed in [Tulusan et al.,
2011]. The authors achieved savings between 1.4% and 4.6%
of fuel using the solution. Also, they highlights the appropriateness of this proposal to keep in time the improvement.
2.2 Control Models
These proposals obtain the optimal values of the control
variables (throttle, brake and gear) from the point of view of
energy efficiency. These algorithms are based on the prediction of near future. In the literature we found a large number
of proposals in this research area. Its main advantage is that
they allow to save fuel regardless of the driver's ability. However, users are reluctant to use them as we can see in [Van
Der Laan et al., 1997].
Manufacturers are already introducing automated solutions to optimize fuel consumption. An example are the startstop systems which automatically turn off the engine when
the vehicle stops and turn on it when the clutch is depressed.
In addition, the engine is adapted, so there is no wear during
this operation. In several studies, authors recommend turn off
the engine when the vehicle is stopped for more than one minute. However, they also observed that this recommendation
can have negative effect on the engine longevity if it is not
modified to support this solution [Bishop et al., 2007]. This
solution is especially useful in urban road. The fuel economy
is from 5% to 10%.
Another example of control system is Nissan Eco-Pedal.
The solution consists of installing a servo to the throttle pedal. Servo adds strength to the throttle pedal, depending on
the intensity with which the conductor is pressing it. The
strength appears when the driver accelerates with an intensity
exceeding a threshold, from which the system estimated that
fuel consumption will be high. The savings achieved by this
solution is from 5% to 10% of fuel. However, many drivers
do not find comfortable this system and switched it off
[CNET, 2014].
2.4 User Interface
When designing an in-vehicle information system it is important to ensure that the recommendations and the method
to convey these tips do not negatively affect cognitive processing and driving performance [Peissner et al., 2011]. A
very important research topic in eco-driving are communication between the user and the driving assistant.
Many researches analyze what information should be displayed to the user. For example, in [Man et al., 2012], authors
conducted a survey online to find out what is the most demanded information according to the user motivation. The
conclusions were that user interface should show the amount
of money that has been saved in the first place. Drivers also
showed interest in the amount of fuel spent on each trip.
However, the greenhouse emissions were not useful in order
to improve the driving from the point of view of energy consumption.
Other authors try to guess which are the best ways to interact with the user. In several works, they concluded that the
best way to communicate with the user is using the voice.
However, for this to be true is necessary to ensure compliance
with the following requirements [Peissner et al., 2011]:


The speech synthesizer has to issue a clear voice and
humanlike.
The speech recognizer needs to be precise.
52
 Dialogues should not be complex.
The distractions that cause the screens can be mitigated if the
driver does not have to take the eyes off the road. Google
Glass or Garmin HUB [Google Glass, 2013] [Garmin HUB,
2014] are two proposals that allow the user to receive visual
and to pay attention on the road.
3


Eco-driving assistant
The system is continuously monitoring the environment, the
vehicle and nearby cars. The information that the system acquires the environment consists of: vertical static traffic
signs, traffic, weather conditions, slope and anomalous
events. Static traffic signals are obtained using the camera
from an Android Mobile Device and the Viola&Jones algorithm adapted for the recognition of traffic signs. The traffic
state and weather conditions are achieved through web services, although we could alternatively use the information
provided by other vehicles. Anomalous events that affect fuel
consumption are detected by vehicles combining fuzzy logic
with J48 algorithm. J48 is the implementation of the c4.5 algorithm on Weka. Road slope is estimated using the geographical coordinates (latitude, longitude and height) of two
consecutive points.
Then the data are analyzed using different algorithms of
artificial intelligence:
 EM Clustering Algorithm: It retrieves information
based on a certain criterion [Pumrin and Dailey,
2003]. For example, vehicle telemetry where fuel
consumption provided by the manufacturer is 6
l/100 km.
 Fuzzy logic: It is used to evaluate the driving from
the point of view of energy efficiency [Zadeh,
1965].
 Genetic Algorithm: It determines the optimal average speed for each segment of a route.
 J48 Algorithm: It detects unusual events such as
traffic accidents or traffic jams based on vehicle telemetry.
 Viola & Jones algorithm: It is used to recognize
static vertical recognize traffic signs [Viola and
Jones, 2011].
 Multilayer Perceptron Neural Network: It allows to
estimate the acceleration for a segment of the route
taking into account the average speed in combination with the genetic algorithm [Widrow and Hoff,
1969].
The result of data analysis is a set of eco-driving tips and
feedback to motivate the user in order to save fuel. Eco-driving advice can be classified into two groups: Preventive tips
and post-action tips. Eco-driving advice based on anticipation
save a lot of fuel because it prevents the user from making
inefficient actions. The key from eco-driving is anticipation
to reduce the frequency and intensity of the accelerations
(positive and negative). On the other hand, post-action tips
warn the user not to make mistakes again in the driving.
Preventive Tips:



Optimal Average Speed: The system shows the optimal average speed for each segment of the route.
This speed minimizes the frequency and intensity of
the accelerations (positive and negative).
Speed pattern: Solution indicates the recommended
speed second-by-second for smoothing the accelerations or informs the user about what is the most efficient close driver in order to he or she imitates their
behavior.
Traffic Sign Detection and Optimal Deceleration:
The proposal employs an expert system that, based
on the detection or previous knowledge of certain
types of traffic signals, proposes a method to reduce
fuel consumption by calculating optimal deceleration patterns, minimizing the use of braking.
Anomalous Events On Road: The fuel consumption
increases when there are incidents on the road as
traffic jams or weather conditions are adverse. If the
driver knows in advance the incident, he may
change the route or adapt the vehicle speed in order
to avoid having to brake abruptly.
Inefficient regions: During testing, we have observed that drivers tend to make mistakes at the
same places from the point of view of energy efficiency in usual routes. The assistant predicts if the
driver is going to make mistakes and notifies him or
her if so. The prediction is based on the driver behavior shown close to the inefficient region and the
road state.
Post-Actions Tips:
 Real-Time Advice: We can obtain in “real time” the
telemetry through the vehicle diagnostic port (OBD)
[OBD2 Adapter, 2012] [Godavarty et al., 2000].
Therefore, we can detect when the driver violates
any of the eco-driving rules. For example, if the
driver brakes sharply. In these cases, the solution
alerts the user in order to avoid that her or she makes
the same mistake again.
 Eco-driving tips based on other users: the assistant
compares the driving with other users who have previously made the same route under similar conditions and extract tips to improve the driving style.
In the eco-driving is essential to encourage and motivate
the user to apply the tips and continue using the assistant. Our
proposal evaluates the driver when it completes the trip from
the point of view of energy consumption and assigns a score
to him or her. User scores can be shared with friends and
other users establishing a ranking. The gamification techniques are designed based on the goal of obtaining the maximum score. Gamification is the use of game design elements
in non-game contexts such as learning environments. The
idea is to use concepts from games like: the challenge, the
competitiveness and progression in order to motivate the user
for improving the driving style.
Score is calculated using a fuzzy logic system. This
method allows us to simulate the human knowledge when
53
carrying out certain tasks such as driving. The objective is to
model the behavior of an efficient driver. In the model, a set
of input variables is involved and the output is the estimation
of energy efficiency of a driver. The output variable is a number between 0 and 10. A high value means that the driver is
applying the basic rules of eco-driving thoroughly. The proposed solution is able to evaluate the driver's driving style
based on a knowledge database obtained by observing telemetry samples.
On the other hand, we have defined a set of achievements
with the purpose of motivate the driver to use the system frequently and in order to allow him to get familiar with ecological challenges. As an example, the user unlocks an achievement when he completes a trip without accelerating sharply.
Achievements are a traditional gamification method used to
accomplish a certain behavior or to compare the performance
of users. Achievements do not normally imply monetary
compensation, but they are based on an emotional reward.
4
Conclusions
In this paper, we have presented an eco-driving assistant to
encourage drivers to change their driving habits. The proposal is continuously monitoring the environment, the vehicle and nearby cars. The captured data are analyzed using different algorithms of artificial intelligence. The result is a set
of eco-driving tips and feedback to motivate the user in order
to save fuel. The main contribution of this work is that the
tips are adapted taking into account the driver profile (aggressive, normal o eco-friendly), the vehicle features, and the environment conditions.
It is important adjust the tips for each type of user in order
to avoid the discouragement of the driver. Otherwise, the user
may not use the proposal. The thresholds of the eco-driving
rules should not be the same for a normal driver than for an
aggressive driver.
On the other hand, the impact of accelerations, decelerations, vehicle speed and engine speed depend on the vehicle
characteristics. For example, if the vehicle is old, the maximum speed from which the fuel consumption grows exponentially will be lower than in modern vehicles that have aerodynamic improvements.
Finally, the driving style is also influenced by the environment. On an urban road, it is normal that the diver has to increase the frequency and intensity of the accelerations (positive and negative) in comparison with a highway. This increase happens due to traffic signs that force the driver to stop
or the presence of other vehicles or pedestrians using the
road. In this case, the thresholds of the eco-driving rules
should be more permissive.
Acknowledgments
The research leading to these results has received funding
from the “HERMES-SMART DRIVER” project TIN201346801-C4-2-R within the Spanish "Plan Nacional de I+D+I"
under the Spanish Ministerio de Economía y Competitividad
and from the Spanish Ministerio de Economía y Competitividad funded projects (co-financed by the Fondo Europeo
de Desarrollo Regional (FEDER)) IRENE (PT-2012-1036370000),
COMINN
(IPT-2012-0883-430000)
and
REMEDISS
(IPT-2012-0882-430000)
within
the
INNPACTO program.
References
[af Wåhlberg, 2007] A. af Wåhlberg, «Long-term effects of
training in economical driving: Fuel consumption, accidents, driver acceleration behavior and technical feedback,» International Journal of Industrial Ergonomics,
vol. 37, nº 4, pp. 333-343, 2007.
[André, 1996] M. André, «Driving cycles develop-ment:
Characterization of the methods,» SAE Technical Papers
Series 961112, 1996.
[Barbe and Boy, 2006] J., Barbé and G. Boy, “On-board system design to optimize energy management,” Proceedings
of the European Annual Conference on Human DecisionMaking and Manual Control (EAM'06), Valenciennes,
France, September 27-29, 2006.
[Bishop et al., 2007] J. Bishop, A. Nedungadi, G. Ostrowski
y B. Surampudi, «An Engine Start/Stop System for
Improved Fuel Economy,» SAE Technical Paper, 2007.
[Caiazzo et al., 2013] F. Caiazzo, A. Ashok, Ian A. Waitz,
Steve H.L. Yim, and Steven R.H. Barrett, “Air pollution
and early deaths in the United States. Part I: Quantifying
the impact of major sectors in 2005”, Atmospheric Environment, Volume 79, November 2013, Pages 198-208,
ISSN 1352-2310.
[CNET, 2014] «CNET: Eco-Pedal Nissan Infiniti M56 Sedan,»
[En
línea].
Available:
http://reviews.cnet.com/2300-10863_7-10015587-22.html. [Last
access: 15 01 2014].
[Dardanelly et al., 2012] A. Dardanelli, M. Tanelli, B. Picasso, S. Savaresi, O. di Tanna y M. Santucci, «A
Smartphone-in-the-Loop Active State-of-Charge Manager for Electric Vehicles,,» Mechatronics, IEEE/ASME
Transactions on, vol. 17, nº 3, pp. 454-463, 2012.
[Ericsson, 2001] E. Ericsson, «Independent driving pattern
factors and their influence on fuel-use and exhaust emission factors,» Transportation Research Part D: Transport
and Environment, nº 6, pp. 325-345, 2001.
[Garmin HUB, 2014] «Garmin HUB,» [On Line]. Available:
https://buy.garmin.com/en-US/US/prod155059.html.
[Last access: 16 01 2014].
[Garmin, 2014] «Garmin Mechanic App,» [On Line]. Available:https://play.google.com/store/apps/details?id=com.garmin.android.apps.mech&hl=es. [Last access: 2014 01 15].
[Godavarty et al., 2000] Godavarty, S.; Broyles, S.; Parten,
M., "Interfacing to the on-board diagnostic system," Vehicular Technology Conference, 2000. IEEE-VTS Fall
VTC 2000. 52nd , vol.4, no., pp.2000,2004 vol.4, 2000.
doi: 10.1109/VETECF.2000.886162.
54
[Google Glass, 2013] «Google Glass,» [On Line]. Available:
http://www.google.com/glass/start/. [Last access: 20 12
2013].
[Haworth and Symmons, 2001] N. Haworth and M. Symmons, «The relationship between fuel economy and safety
outcomes,» Monash University Accident Research Centre, 2001.
[Hiraoka and Terakado, 2009] T. Hiraoka, Y. Terakado, S.
Matsumoto y S. Yamabe, «Quantitative evaluation of ecodriving on fuel consumption based on driving simulator
experiments.,» de 16th World Congress on Intelligent
Transport Systems, 2009.
[Honda, 2014] «Honda Eco-Assist,» [On Line]. Available:
http://automobiles.honda.com/spanish/accord-sedan/ecoassist.aspx. [Last access: 15 01 2014].
[Fomunung et al., 1999] I. Fomunung, S. Washington y R.
Guensler, «A statistical model for estimating oxides emissions from light duty motor vehicles,» Transportation Research Part D: Transport and Environment, vol. 4, nº 5,
pp. 333-352, 1999.
[Isler et al., 2010] R. Isler, S. N.J. and S. J., «Evaluation of a
sudden brake warning system: Effect on the response time
of the following driver,» Applied Ergonomics, vol. 41, nº
4, pp. 569-576, 2010.
[Johansson et al., 2003] H. Johansson, P. Gustafsson, P.
Henke y M. Rosengren, «Impact of ecodriving on emissions,» de 12th Symposium Transport and Air Pollution
Conference, Avignon, 2003.
[Hedges and Moss, 1996] P. Hedges and D. Moss, «Costing
the effectiveness of training: case study 1 - improving Parcelforce driver performance,» Industrial and Commercial
Training, vol. 28, nº 3, pp. 14-18, 1996.
[Koshinen, 2008] O. H. Koskinen, “Improving vehicle fuel
economy and reducing emissions by driving technique,”
Proceedings of the15th ITS World Congress, New York,
Nov 15-20, 2008.
[Man et al., 2012] W. Y. Man, J. Brie, B. Vam Arem and S.
Mizobuchi, «User needs in green its: the results of a questionnaire survey on Dutch and Japanese drivers,» International Journal of Intelligent Transportation Systems Research, vol. 10, nº 2, pp. 47-55, 2012.
[OBD2 Adapter, 2012], URL: http://www.scantool.net. [Last
access: May 2014].
[Onoda, 2009] T. Onoda, «lEA policies-G8 recommendations and an afterwards,» vol. 37, nº 10, 2009.
[Peissner et al., 2011] M. Peissner, V. Doebler y F. Metze,
«Can voice interaction help reducing the level of distraction and prevent accidents? Meta-study on driver distraction and voice interaction,» NUNCE, 2011.
[Pumrin and Dailey, 2003] Pumrin, S.; Dailey, D.J., "Vehicle
image classification via expectation-maximization algorithm," Circuits and Systems, 2003. ISCAS '03. Proceedings of the 2003 International Symposium on , vol.2, no.,
pp.II-468,II-471 vol.2, 25-28 May 2003. doi:
10.1109/ISCAS.2003.1206011
[Rolim et al., 2003] C. C. Rolim, P. C. Baptista, G. O. Duarte
y T. L. Farias, «Impacts of On-board Devices and
Training on Light Duty Vehicle Driving Behavior,»
Procedia - Social and Behavioral Sciences, vol. 111, pp.
711-720, 2014.
[Ryosuke and Yasushide, 2010] A. Ryosuke and N.
Yasuhide, «Development of a system to promote ecodriving and safe-driving,» de Smart Spaces and Next
Generation
Wired/Wireless
Networking:
Third
Conference, 2010.
[Torque, 2014] «Torque,» [On-Line]. Available:
http://torque-bhp.com/. [Last access: 15 01 2014].
[Trommer and Höltl, 2011] S. Trommer y A. Höltl, «Perceived usefulness of eco-driving assistance systems in Europe,» Intelligent Transport Systems, IET, vol. 6, nº 2, pp.
145-152, 2011.
[Tulusan et al., 2011] J. Tulusan, L. Soi, J. Paefgen, M.
Brogle y T. Staake, «"Eco-efficient feedback technologies: Which eco-feedback types prefer drivers most?,» de
IEEE International Symposium on a World of Wireless,
Mobile and Multimedia Networks (WoWMoM), 2011.
[Van Der Laan et al., 1997] J. D. Van Der Laan, A. Heino y
D. De Waard, «A simple procedure for the assessment of
acceptance of advanced transport telematics,» Transportation Research Part C: Emerging Technologies, vol. 5, nº
1, pp. 1-10, 1997.
[Van der Voort et al., 2001] M. van der Voort, M. Dougherty
y M. van Maarseveen, «A prototype fuel-efficiency support tool,» Transportation Research Part C: Emerging
Technologies, vol. 9, nº 4, 2001.
[Van Mierlo et al., 2004] J. Van Mierlo, J. Maggetto, E. Van
Burgwal y R. Gense, «Driving style and traffic measuresinfluence on vehicle emissions and fuel consumption,»
Proceedings of the Institution of Mechanical Engineers,
Part D: Journal of Automobile Engineering, vol. 218, nº
1, pp. 43-50, 2004.
[Viola and Jones, 2011] P. Viola and J. Michael, “Robust
Real-time Object Detection,” Second international workshop on statistical and computational theories of vision –
modeling, learning, computing, and sampling, Vancouver, 2001.
[Widrow and Hoff, 1969] B. Widrow and M. E. Hoff, “Adaptive switching circuits,” WESCOM Conv. Rec., pt. 4, pp.
96-140, 1960.
[Zadeh, 1965] L. Zadeh, «Fuzzy sets,» Information and Control, vol. 8, nº 3, pp. 338-353, 1965
55
La formación a través de dispositivos móviles. Diseño y evaluación de contenidos y
actividades formativas a través de m-learning
Alfonso Cueto Crespo1
Soria Morillo, Luis Miguel2
Álvarez García, Juan Antonio3
1 Scientific
Computing Center of Andalusia (CICA)
Economy, Innovation and Science Counseling
Andalusia, Spain
acueto@us.es
2 Dept.
of Languages and Informatics Systems
University of Seville
Seville, Spain
lsoria@us.es
3 Dept.
of Languages and Informatics Systems
University of Seville
Seville, Spain
jaalvarez@us.es
Abstract
El porcentaje de alumnos que acaban un curso online es
inferior al 20% (Liyanagunawardena, Dropout: MOOC
participants’perspective., 2014) por lo que proponemos
una aplicación móvil que de manera automática
reconozca el contexto del usuario y le notifique las
lecciones que podría realizar en dicho contexto, por lo que
esperamos aumentar dicho porcentaje y facilitar la
realización de los lecciones.
Keywords: MOOC, Activity Recognition, m-learning,
computacion ubicua
móviles (Cuadrado Cordero & Soria Morillo, 2013).
Teniendo en cuenta la tendencia y popularidad de los
cursos online (MOOC) queremos unirla con computación
ubicua y poder ofrecer al usuario una nueva experiencia
de aprendizaje en la que el dispositivo móvil le ofrezca el
material al usuario en función de su actividad/situación.
Para este fin nos hemos basado en tecnologías de Google,
gestionadas desde una aplicación Android y sobre un
curso en Moodle. En la siguiente ilustración se puede
observar a grandes rasgos el flujo de trabajo de la
aplicación.
1. Introducción
Desde hace unos años se ha visto un incremento en los
alumnos que se matriculan en cursos online por internet,
esto en parte es debido a que al no tener ningún
requerimiento muchos se apuntan por el mero hecho de la
curiosidad cosa que provoca en algunos casos índices de
finalización muy bajos ya que muchos acaban
abandonándolos, en otros se debe a otros factores que
hacen que el alumno pierda el interés por el curso.
Por otro lado durante la última década, la tecnología ha
creado un nuevo campo en el desarrollo de software,
conocido como la computación ubicua, gracias a la
mejora y ampliación de los sensores integrados. Estos
sensores se han integrado con éxito en la vida diaria del
usuario común, usando dispositivos como teléfonos
Ilustración 1: flujo de funcionamiento
1.
2.
3.
Cuando el dispositivo detecta un contexto
adecuado manda un mensaje por GCM (Google
Cloud Message) al servidor de peticiones.
Este con la información del mensaje original
hace una petición a Moodle.
Moodle responde con las lecciones disponibles
para dicho usuario en ese contexto concreto.
56
4.
El servidor responde con un mensaje por GCM
al dispositivo con toda la información que
necesita para realizar el ejercicio.
2. Nuestra Propuesta
Para ello estamos desarrollando una aplicación móvil en
Android que gracias al reconocimiento del contexto pueda
sugerirle al alumno las lecciones que podría realizar
paralelamente durante dicho contexto, dándole la opción
de poder realizar las lecciones sin que la falta de tiempo o
la situación en la que se encuentra sea un inconveniente.
3. Conclusiones
Esperamos poder brindar una nueva experiencia de
aprendizaje en los cursos online en la que el dispositivo
móvil sepa que lección debes realizar en función del
contexto en el que se encuentre el alumno, para de este
modo facilitar la realización y aumentar el porcentaje de
finalización de los cursos.
4. References
[1]
Dropout:
MOOC
participants’perspective.
Liyanagunawardena, T. R., Parslow, P. and Williams, S.
2014.
[2] A proposal on an energy-saving policy on
context based system. Cuadrado Cordero, Ismael y Soria
Morillo, Luis Miguel. 2013.
57
Towards A Fuzzy Colour Descriptor Sensitive to the Context
Zoe Falomir∗
Universität Bremen
Vivien Mast
Universität Bremen
Daniel Couto Vale
Universität Bremen
Lledó Museros
Luis Gonzalez-Abril
Universitat Jaume I Universidad de Sevilla
Abstract
In order to categorise colour coordinates into colour
names with a degree of believing, a Fuzzy Colour
Descriptor (FCD) based on the Hue Saturation and
Lightness colour space is presented. This FCD is
intended to manage the context on colour naming
in order to generate suitable referring expressions
which could approximate human perception and
enhance human-machine communication.
1 Introduction
Colour perception is very subjective since there are colours
which may be named differently depending on the person
who refers to them. For example, the cloth in Figure 1 may
be named as the green or yellow cloth.
Figure 1: The green cloth or the yellow cloth? Depending on
the person’s perception.
There are other cognitive effects in colour perception,
such as sensitivity to brightness or/and colour context [Lotto
and Purves, 1999], which may cause conceptual mismatch
and communication failure between humans and machines.
Examples of these effects are shown in Figure 2. There is also
empirical evidence which confirms that object colour perception changes with change in illumination and background
[Helson, 1938].
Spranger and Pauw [2012] show that overlapping, graded
colour categories can improve the chances of communicative success under circumstances of perceptual and conceptual deviation. Therefore, providing a parameterised model
∗
Correspondence to: Zoe Falomir, Cognitive Systems (CoSy),
FB3 - Informatics, Universität Bremen, P.O. Box 330 440, 28334
Bremen, Germany. E-mail: zfalomir@informatik.uni-bremen.de
(a)
(b)
Figure 2: Examples of: (a) context sensitivity of colour perception: the colour of the X is the same in both parts; and (b)
context sensitivity of brightness perception: the colour of the
small square is the same in both parts.
for colour naming allows the adaptation of the system’s usage
of colour terms to the idiosyncrasies of user groups or individuals.
A colour-naming model can be parameterised in a specific
way, so that the system can adapt to a specific type of user
[Museros et al., 2014; Soto-Hidalgo et al., 2010]. However,
when two users need to communicate, they need to agree on a
colour name, and having a range of grade possibilities for the
same colour coordinates facilitates common grounding and
concept alignment through dialogue.
In this paper, a Fuzzy Colour Descriptor (FCD) based on
Hue Saturation and Lightness (HSL) colour space is presented for categorising colour coordinates into colour names
with a degree of believing. HSL colour space is used because, according to Palmer [1999] and to Sarifuddin and Missaoui [2005], its topological structure is intuitive to be divided
into intervals of values corresponding to colour names. This
fuzzy colour model is defined in general and parameterised
as a baseline using data of a collection of colour data, coming
from previous experiments [Falomir et al., 2013]. However it
is suitable of adaptation to other experimental results on other
populations. The context of communication is managed by
this fuzzy colour model in combination with the Probabilistic
Reference And GRounding mechanism (PRAGR) [Mast and
Wolter, 2013] which, based on the degrees of believing obtained evaluates discriminatory power and appropriateness of
referring expressions.
58
2 Related Work
In the literature, other fuzzy colour descriptors have been previously defined on other colour models: (i) an approach for
computational colour categorisation and naming based on the
CIE Lab colour space and fuzzy partitioning was formulated
by Menegaz et al. [2007]; (ii) fuzzy colour categories were
defined based on the Musell Colour Solid and the HCL colour
space and similarity values based on the Fuzzy C-Means to
compare fuzzy colour categories were defined by Seaborn
et al. [2005]; (iii) an approach to automatically design customised fuzzy colour spaces on any euclidean crisp space
was proposed by Soto-Hidalgo et al. [2010], they also defined three fuzzy colour spaces on RGB using the colour sets
in the ISCC-NBS colour naming system as a baseline.
All these previous works provide evidence for the effectiveness of applying fuzzy methods for colour naming. However, in the literature, very few approaches manage the context for colour naming, only the work by Meo et al. [2014] use
uncertain boundaries of colour terms in their system, which
can generate appropriate colour terms in referential situations
for discriminating similar colour patches.
The FCD presented in this paper is combined with PRAGR
[Mast and Wolter, 2013] in order to solve vague colour references in human-machine interaction taking into account
the context of the information. To our knowledge, there are
no contextually aware colour models that have been demonstrated to function within the context of generating and resolving arbitrarily complex referring expressions with different kinds of properties and relations.
3 A Fuzzy Colour Descriptor (FCD)
The concept of fuzzy set was introduced by Zadeh [1965] as a
‘class’ with a continuum of grades of membership defining a
methodology for translating the numerical data obtained from
the world into linguistic categories with a degree of believing
which can be given a meaning and used for reasoning.
Let us define a fuzzy set as a pair (F zSet, µF zSet ) where
F zSet is a set and µF zSet : F zSet → [0, 1] ∈ <. For
a finite set F zSet = {x1 , ..., xn }, for each x ∈ F zSet, a
µF zSet (x) is obtained and called the grade of membership of
x ∈ (F zSet, µF zSet ).
Let x ∈ F zSet. Then x is called not included in the fuzzy
set (F zSet, µF zSet ) if µF zSet (x) = 0.0, x is called fully
included if µF zSet (x) = 1.0, and x is called fuzzy member if
0.0 < µF zSet (x) < 1.0.
From the HSL coordinates, a Fuzzy Colour Reference System is defined as:
FzCRS = {uH, uS, uL, CF zSet1..5 }
where uH is the unit of Hue, uS is the unit of Saturation, uL
is the unit of Lightness in the HSL colour space (Figure 3);
CF zSet1..5 refers to the selected colour names and the fuzzy
sets related to them, as follows:
CF zSet1 = {(G1 , µG1 )), ..., (Gi , µGi )), ..., (G` , µG` )}
where ` colour names are defined for the grey scale in
CF zSet1 by fuzzy sets. It is worth noting that the parameters
` depend on the granularity that an expert needs in each
Figure 3: The Fuzzy Colour Descriptor (FCD) build on the
HSL colour space.
scenario. Henceforth, ` = 5 have been chosen as a baseline.
CF zSet2 = {(R1 , µR1 ), ..., (Rj , µRj ), ..., (Rr , µRr )}
where r colour names are defined for the rainbow scale in
CF zSet2 and are considered the more saturated or stronger
ones. In QCIN T2 , their saturation can take values between
rusM IN and 100, whereas their luminance can take values
between rulM IN and rulM AX . Thus, the different values of
hue (ruhr ) can take values between 0 and 360 and determine
the colour names defined for this set. Note that the parameters r depend on the granularity that an expert needs in each
scenario. Henceforth, r = 5 has been chosen as a baseline.
CF zSet3 = {pale- + CF zSet2 }
where r pale colour names are defined in CF zSet3 by adding
the prefix pale- to the colours defined for the rainbow scale,
CF zSet2 . The colour names defined in CF zSet3 have the
same interval values of hue as rainbow colours (CF zSet2 ).
The lightness intervals also coincide, but they differ from
rainbow colours in their saturation, which can take values
between gusM AX and rusM IN .
CF zSet4 = {light- + CF zSet2 }
CF zSet5 = {dark- + CF zSet2 }
where r light and dark colour names are defined in CF zSet4
and CF zSet5 , respectively, by addition of the prefixes darkand light- to the colour names in the rainbow scale (CF zSet2 ).
The intervals of values for dark and light colour sets, CF zSet4
and CF zSet5 , take the same values of hue as rainbow colours
in CF zSet2 , respectively. The saturation intervals also coincide, but the lightness coordinate (UL) differs and determines
the luminosity of the colour (dark or light) taking values between rulM AX and 100 for light colours and between rul and
rulM IN for dark colours.
59
4 Parameterising the FCD
• In all other cases, the interval values in HSL correspond
to wedges in the Cartesian axis (see Figure 4). Therefore, for the colours in the rest of scales, it is holds that:
1
(hc , sc , lc ) where hc = h0 +h
, sc = sr sin(hc ), and
2
1
lc = l0 +l
2
q 2 2
s0 +s1
0
(hr , sr , lr ) where hr = h1 −h
, sr =
and lr =
2
2
The FCD is parameterised as a baseline using data of a collection of colour intervals (each one assumed to be fully representative of a certain colour term) coming from previous
experiments [Falomir et al., 2013; Falomir et al.]. However,
those crisp intervals have been adapted to a more intuitive
definition where values are overlapped. Colours in the grey
scale, CF zSet1 , have uncertain boundaries in the dimension
of lightness, such as the prototypical colours, CF zSet2 , in the
dimension of hue. Moreover, prototypical colours are defined
in the whole range of lightness, because a light-red or a darkred colour is considered also red. As a result, the intervals
defining light/dark colours are overlapping also prototypical
colours.
Table 1 shows the values used for parameterising the FCD.
Inspired by to other works in the literature [Palmer and
Schloss, 2010], this model has also defined some equivalent
colours such as: dark-orange≡brown, dark-yellow≡olive,
pale-red≡pastel-pink according to the Inter-Society Colour
Council - National Bureau of Standards (ISCC-NBS1 ).
l1 −l0
2
The exception is the colour red, which is divided into
two parts in order to cover the starting and ending part of
the central circle in HSL. For the first red, hc = h0 = 0
and hr = h1 − h0 , whereas for the second red, hc =
h1 = 360 and hr = h1 − h0 .
lr
h1
h0
s = 100
s = min
5 The FCD Membership Functions
Let us define a fuzzy degree of believing for each colour defined on HSL internals:
[h0 , h1 ] × [s0 , s1 ] × [l0 , l1 ] ≡ Br (h, s) × Blr (lc)2
Let us define a three-dimensional Radial Basis Function
(RBF) as µ(h, s, l):
µ(h, s, l) = e
h−hc 2
s−sc 2
l−lc 2
−1
2 (( hr ) )+( sr ) )+( lr ) ))
(1)
where (hc , sc , lc ) are the centroids of the intervals in hue (h),
saturation (s) and lightness (l) for each defined colour and
(hr , sr , lr ) are the amplitudes of those intervals or radius.
Note that, from the spatial structure of the HSL colour
space, it is obtained that:
• In CF zSet1 , the interval values obtained in HSL coordinates correspond to cylinders in the Cartesian coordinate
system. Therefore, for the colours in the grey scale, it is
holds that:
(hc , sc , lc ) where hc = sc = s0 = minsaturation and
1
lc = l0 +l
2
(hr , sr , lr ) where hr = sr = s1 = maxsaturation and
0
lr = l1 −l
2
As hc = sc and hr = sr , then (1) is independent of hue
and it can be rewritten as:
µ(h, s, l) = e
s−sc 2
l−lc 2
−1
2 (( sr ) )+( lr ) ))
(2)
Note that for the colour black, lc = l0 = 0 and for the
colour white, lc = l1 = 100.
1
http://tx4.us/nbs-iscc.htm (Accessed August
2014)
2
Note that, given an open interval (analogously for another kind
of interval) of finite dimension, there are two main ways to represent
it: from the extreme points as (a,b) (classical notation) or as an open
ball Br (c) (Borelian notation) where c = (a + b)/2 (centre) and
r = (b − a)/2 (radius).
Figure 4: Wedges which determine the colours in the most
saturated colour scale CF zSet2 , the pale scale CF zSet3 , the
light scale CF zSet4 and the dark scale CF zSet5 .
Table 2 shows the parameters used by the FCD, which applied to (1) generate the 3D-RBFs for obtaining the degree of
believing for each colour name.
Figure 5 shows the membership functions of the colours
in the grey scale, CF zSet1 , taking into account the dimension
of lightness. Figure 6 presents the membership functions of
the prototypical colours, CF zSet2 , in the dimension of hue.
Figure 7 shows the membership function of a prototypical
colour, red, defined in the whole range of lightness, since
light-red and dark-red colour are considered also red. Figure
8 show the membership functions obtained for any prototypical colour defined in the dimension of lightness or saturation,
respectively. Note how the membership functions overlap as
a result of the RBF parameters. Finally, Figure 9 shows the
membership function of a prototypical colour (orange) depending on the amount of hue and the amount of saturation,
considered together.
6
Normalizing the Grades of FCDs
In order to grade the degrees of believing obtained for each
colour descriptor (1, 2), they are normalised as follows:
µ(h, s, l)
(3)
µ(h, s, l) = Pn
i=1 µ(h, s, l)
where the input variables are hue (h), saturation (s) and
lightness (l) as the coordinates of the color in HSL and
60
P
µ(h, s, l) is the total amount of certainties obtained for
these HSL colour coordinates.
7
Table 3: FCDs obtained for each of the objects in the scenes
in Figure 10.
Probabilistic Reference And GRounding
(PRAGR) Mechanism
Based on the fuzzy degree of believing for different colour
terms, the Probabilistic Reference and GRounding (PRAGR)
mechanism can determine, in a given situation, the most appropriate referring expression to use for describing a particular object. Moreover, PRAGR can determine the most likely
referent for a given description (see Mast and Wolter [2013]
for a detailed description). The core concepts of PRAGR are
Acceptability (Acc) and Discriminatory Power (DP ).
The acceptability of a description D is the conditional
probability P (D|x) that D will be accepted by the interlocutor as a description of object x. For simple properties, like
colour terms, Acc can correspond to the fuzzy degree of believing obtained by the FCD presented here. For complex
descriptions, belief scores are multiplied.
Discriminatory Power is the probability P (x|D) that D
discriminates x from its distractors. This value compares the
acceptability of D for the target to its acceptability for distractors. For identifying the most likely referent of a given
description, PRAGR selects the object for which D has the
highest Acc.
When generating referring expressions, PRAGR jointly
maximises Acc and DP , selecting an expression that yields
the best balance between providing an adequate description of
an object per se, and a description that distinguishes it from
the other objects in the context. The model parameter α determines the weighting of Acc, with a value of 0 indicating
that Acc is ignored, and a value of 1 meaning that only Acc
is considered, and DP is ignored. Values of 0.2 to 0.4 have
been shown to yield good results.
Scene 1
Scene 2
circle-up
HSL(330,63,59),
(red, 0.48),
(pink, 0.75),
(pale-red, 0.36),
(pale-pink, 0.56),
(light-red, 0.34),
(light-pink, 0.54)
(purple, 0.1),
(dark-red, 0.072),
(dark-pink, 0.11)
HSL(201,100,30),
(green, 0.12),
(turquoise, 0.53),
(blue, 0.59),
(purple, 0.06),
(dark-green, 0.08),
(dark-blue, 0.05),
(dark-turquoise,
0.05)
circle-down
HSL(8,59,61),
(red, 0.9),
(orange, 0.19),
(pale-red, 0.27),
(light-red, 0.54),
(dark-red, 0.08),
(light-orange,
0.08)
HSL(5,56,64),
(red, 0.93),
(orange, 0.13),
(pale-red, 0.32),
(light-red, 0.63),
(dark-red, 0.06),
(light-orange,
0.06)
square-up
HSL(8,59,61),
(red, 0.9),
(orange, 0.19),
(pale-red, 0.27),
(light-red, 0.54),
(dark-red, 0.08),
(light-orange,
0.08)
HSL(5,56,64),
(red, 0.93),
(orange, 0.13),
(pale-red, 0.32),
(light-red, 0.63),
(dark-red, 0.06),
(light-orange,
0.06)
square-down
HSL(330,63,59),
(red, 0.48),
(pink, 0.75),
(pale-red, 0.36),
(pale-pink, 0.56),
(light-red, 0.34),
(light-pink, 0.54)
(purple, 0.1),
(dark-red, 0.08),
(dark-pink, 0.11)
HSL(201,100,30),
(green, 0.12),
(turquoise, 0.53),
(blue, 0.59),
(purple, 0.06),
(dark-green, 0.08),
(dark-blue, 0.05),
(dark-turquoise,
0.05)
8 Experimentation
A proof-of-concept of the FCD is presented considering the
scene examples in Figure 10. Table 3 shows the HSL coordinates and their degrees of believing obtained from the objects
in the scenes.
by PRAGR for the circle located down in Scene 1 in Figure
10.
Table 4: Evaluation values of PRAGR for circle located down
in Scene 1.
(a) Scene-1
(b) Scene-2
Figure 10: Which colours do the circles and squares have?
Are the red colours equal in both scenes?
Table 4 presents the values of acceptability (Acc), discriminatory power (DC) and appropriateness (App) calculated
Acc
DP
App
red circle
0.9
0.65
0.72
orange circle
0.19
1.0
0.79
Description
Table 4 shows how, in Scene 1, the term orange gets pre-
61
ferred over red for the circle located down. Even though red
has a higher acceptability value, the potential acceptability of
colour red for the distractor object circle-up (P (red|circleup) = 0.14) leads to a low discriminatory power, and thus a
slight dispreference of the term, in favour of the less acceptable, but more discriminating orange.
Table 5 shows the descriptions that PRAGR generates for
the objects in both scenes with α = 0.26. As Table 5 shows
the circle down is referred as orange in Scene 1, and as red
in Scene 2, even though both have almost identical colour
coordinate values.
Table 5: Object descriptions generated by PRAGR for the
scenes in Figure 10.
Scene 1
Scene 2
circle-up
pink circle
blue circle
circle-down
orange circle
red circle
square-up
orange square
red square
square-down
pink square
blue square
9 Conclusions and Future Work
A Fuzzy Colour Descriptor (FCD) based on radial basis membership functions has been defined on the Hue Saturation and
Lightness colour space and presented in this paper for categorising colour coordinates into colour names with a degree
of believing depending on the context of communication.
The FCD has been parameterised as a baseline using data
of a collection of crisp colours, (each one assumed to be fully
representative of a certain colour term) coming from previous
experiments [Falomir et al., 2013]. However, it is suitable of
adaptation to other experimental results on other psychological studies.
The context of communication is managed by
FCD+PRAGR, that is, in combination with the Probabilistic Reference And GRounding mechanism (PRAGR)
[Mast and Wolter, 2013] which adapts the degrees of
believing obtained to maximise discriminatory power and
appropriateness of the referring expressions.
As future work, we intend to compare the fuzzy colour descriptor proposed in this paper to other crisp colour models
(i.e. QCD [Falomir et al., 2013]) in order to select the more
effective descriptor for image retrieval in data bases based on
linguistic, flexible queries made by users. We are also working on the automatic generation of linguistic descriptions of
painters’ colour-palettes on the basis of colour information
[Falomir et al.].
Acknowledgments
Dr.-Ing. Zoe Falomir gratefully acknowledges the funding
from the project COGNITIVE-AMI (GA 328763) by the
European Commission through FP7 Marie Curie IEF actions and the support by the Universität Bremen and the in-
terdisciplinary Transregional Collaborative Research Center
SFB/TR8.
Vivien Mast and Daniel Vale acknowledge the funding by
the project I5-[DiaSpace] at the SFB/TR 8 Spatial Cognition
Research Center and by the German Research Foundation
(DFG).
Dr. Luis Gonzalez-Abril acknowledges the funding by the
the Deutscher Akademischer Austausch Dienst (DAAD) and
the Andalusian Regional Ministry of Economy (project SIMON TIc-8052).
Dr.
Lledo Museros acknowledges the funding by
the Spanish Ministry of Economy and Competitiveness
(project TIN2011-24147), Generalitat Valenciana (project
GVA/2013/135) and Universitat Jaume I (project P11B201329).
References
Z. Falomir, L. Museros, and L. Gonzalez-Abril. A model for
colour naming and comparing based on conceptual neighbourhood. an application for comparing art compositions.
Knowledge-based Systems. in press.
Z. Falomir, L. Museros, L. Gonzalez-Abril, and I. Sanz. A
model for qualitative colour comparison using interval distances. Displays, 34:250–257, 2013.
H. Helson. Fundamental problems in color vision. i. the principle governing changes in hue, saturation, and lightness of
non-selective samples in chromatic illumination. Journal
of Experimental Psychology, 23(5):439–476, 1938.
R.B Lotto and D. Purves. The effects of color on brightness.
Nature Neuroscience, 2(11):1010–1014, 1999.
V. Mast and D. Wolter. A probabilistic framework for object
descriptions in indoor route instructions. In T. Tenbrink
(eds.), editor, Spatial Information Theory, pages 185–204.
2013.
G. Menegaz, A. Le Troter, J. Sequeira, and J. M. Boi. A
discrete model for color naming. EURASIP J. Appl. Signal
Process, Special Issue on Image Perception, pages 1–10,
2007.
Timothy Meo, Brian McMahan, and Matthew Stone. Generating and resolving vague color references. In Verena
Rieser and Philippe Muller, editors, Proceedings of SemDial 2014/DialWatt, pages 107–115, 2014.
L. Museros, I. Sanz, L. Gonzalez-Abril, and Z. Falomir. Validating and customizing a colour naming theory. In Artificial Intelligence Research and Development, Frontiers in
Artificial Intelligence and Applications, page in press. IOS
Press, Amsterdam, 2014.
S. E. Palmer and K. B. Schloss. An ecological valence theory
of human color preference. Proceedings of the National
Academy of Sciences, 107(19):8877–8882, April 2010.
S. Palmer. Vision Science: Photons to Phenomenology. MIT
Press, 1999.
M. Sarifuddin and R. Missaoui. A new perceptually uniform color space with associated color similarity measure
for contentbased image and video retrieval. In Multimedia
62
Information Retrieval Workshop, 28th annual ACM SIGIR
conference, pages 3–7, 2005.
M. Seaborn, L. Hepplewhite, and T. J. Stonham. Fuzzy colour
category map for the measurement of colour similarity and
dissimilarity. Pattern Recognition, 38(2):165–177, 2005.
J. M. Soto-Hidalgo, J. Chamorro-Martinez, and D. Sanchez.
A new approach for defining a fuzzy color space. In Fuzzy
Systems (FUZZ), 2010 IEEE International Conference on,
pages 1–6, July 2010.
M. Spranger and S. Pauw. Dealing with Perceptual Deviation
- Vague Semantics for Spatial Language and Quantification. In L. Steels and M. Hild, editors, Language Grounding in Robots, pages 173–192. Springer, 2012.
L. Zadeh. Fuzzy sets. Information and Control, 8:338–353,
1965.
63
Table 1: HSL overlapping intervals for colour names.
CF zSet1
CF zSet2
CF zSet3
CF zSet4
CF zSet5
Colour Name
black
dark-grey
grey
light-grey
white
red
orange
yellow
green
turquoise
blue
purple
pink
pale-red, pastel-pink
pale-orange
pale-yellow
pale-green
pale-turquoise
pale-blue
pale-purple
pale-pink
light-red
light-orange
light-yellow
light-green
light-turquoise
light-blue
light-purple
light-pink
dark-red
dark-orange, brown
dark-yellow, olive
dark-green
dark-turquoise
dark-blue
dark-purple
dark-pink
UH
US
[0, 360]
[0, 20]
(335, 360] ∧ [0, 20]
(20, 50]
(50, 80]
(80, 160]
(160, 200]
(200, 260]
(260, 300]
(300, 335]
(335, 360] ∧ [0, 20]
(20, 50]
(50, 80]
(80, 160]
(160, 200]
(200, 260]
(260, 300]
(300, 335]
(335, 360] ∧ [0, 20]
(20, 50]
(50, 80]
(80, 160]
(160, 200]
(200, 260]
(260, 300]
(297, 335]
(335, 360] ∧ [0, 20]
(20, 50]
(50, 80]
(80, 160]
(160, 200]
(200, 260]
(260, 300]
(300, 335]
UL
[0, 20)
[20, 30)
[30, 50)
[50, 75)
[75, 100]
(50, 100]
(20, 80]
(20, 50]
(40, 100]
(50, 100]
(55, 100]
(50, 100]
(0, 40]
64
Table 2: Parameters of the radial basis functions (Ci , Si ) for the colour model.
CF zSet1
CF zSet2
CF zSet3
CF zSet4
CF zSet5
Colour Name
black
dark-grey
grey
light-grey
white
red
orange
yellow
green
turquoise
blue
purple
pink
pale-red, pastel-pink
pale-orange
pale-yellow
pale-green
pale-turquoise
pale-blue
pale-purple
pale-pink
light-red
light-orange
light-yellow
light-green
light-turquoise
light-blue
light-purple
light-pink
dark-red
dark-orange, brown
dark-yellow, olive
dark-green
dark-turquoise
dark-blue
dark-purple
dark-pink
H (Ci , Si )
S (Ci , Si )
(180, 180)
(10, 10)
(0, 20) ∧ (360, 25)
(35,15)
(65,15)
(120, 40)
(180, 20)
(230, 30)
(280, 20)
(317.5, 17.5)
(0, 20) ∧ (360, 25)
(35, 15)
(65, 15)
(120, 40)
(180, 20)
(230, 30)
(280, 20)
(317.5, 17.5)
(0, 20) ∧ (360, 25)
(35, 15)
(65, 15)
(120, 40)
(180, 20)
(230, 30)
(280, 20)
(317.5, 17.5)
(0, 20) ∧ (360, 25)
(35, 15)
(65, 15)
(120, 40)
(180, 20)
(200, 260]
(280, 20)
(317.5, 17.5)
L (Ci , Si )
(0, 10)
(25, 5)
(40, 10)
(62.5, 12.5)
(100, 12.5)
(70, 30)
(50, 30)
(25, 15)
(70, 30)
(75, 25)
(75, 25)
(75, 25)
(20, 20)
65
µ(black, 0, 10)
µ(dark grey, 25, 5)
µ(grey, 40, 10)
µ(light grey, 62.5, 12.5)
µ(white, 100, 12.5)
−1 x−Ci 2
2 ( Si )
1
0.8
µ(x, Ci , Si ) = e
0.6
0.4
0.2
0
0
20
40
60
80
100
x
Figure 5: Fuzzy colours in the grey scale in the ligthness dimension (L): CF zSet1 .
µ(red, 0, 20)
µ(orange, 35, 15)
µ(yellow, 65, 15)
µ(green, 120, 40)
µ(turquoise, 180, 20)
µ(blue, 230, 30)
µ(purple, 280, 20)
µ(pink, 317.5, 17.5)
µ(red, 360, 25)
µ(x, Ci , Si ) = e
−1 x−Ci 2
2 ( Si )
1
0.8
0.6
0.4
0.2
0
0
100
200
x
300
Figure 6: Fuzzy colours in one dimension (hue): CF zSet2 .
µ(dark colour, 20, 20)
µ(prototypical colour, 50, 30)
µ(pale colour, 70, 30)
µ(light colour, 75, 25)
µ(x, Ci , Si ) = e
−1 x−Ci 2
2 ( Si )
1
0.8
0.6
0.4
0.2
0
−100 −50
0
50
x
100
150
200
Figure 7: Fuzzy colours in the dimension of lightness (L).
66
µ(grey colour, 10, 10)
µ(prototypical/light/dark colour, 70, 30)
µ(pale colour, 25, 15)
µ(x, Ci , Si ) = e
−1 x−Ci 2
2 ( Si )
1
0.8
0.6
0.4
0.2
0
−100 −50
0
50
x
100
150
200
Figure 8: Fuzzy colours in the dimension of saturation (S).
Green(x)
Y ellow(x)
P
1
Orange(x)
Red(x)
Saturation(x)
0.5
0
0
20
100
40
120
Orange(h, s)
80
60
x1
0.4
60
80
40
100
x2
0.2
20
120 0
Figure 9: Radial Basis Function in two dimensions (hue and saturation) for the colour orange.
0
67
¿Es eficiente apagar máquinas en un centro de datos?
D. Fernández, A. Fernández-Montes, L. González Abril, Juan A. Ortega
Universidad de Sevilla
España
damianfdezcerero@gmail.com, afdez@us.es, luisgon@us.es, jortega@us.es
1
Abstract
Este trabajo tiene como objetivo demostrar los costes extra
en los que las empresas proveedoras de sevicios de internet,
administradores de sistemas y demás organismos que hacen
uso de infraestructuras de clúster o centros de datos incurren
debido al miedo que los equipos técnicos tienen a la pérdida
de datos, merma de servicio o rotura de infraestructura hardware.
Para demostrar esto, propondremos una función que cuantifica el coste de ese miedo, es decir, los costes asociados con
la creencia de que apagar máquinas dentro de los centros de
datos suponen más costes que el ahorro que se produce por el
ahorro energético que conlleva.
Partiendo de la hipótesis contraria a la creencia actual,
esto es, que los beneficios de apagar un número determinado de veces las máquinas de los centros de datos que
sean susceptibles de ello no es intrı́nsecamente malo, ni aumenta los costes totales del centro de datos, propondremos
una solución teórica que deja en evidencia que siempre habrá
una alternativa más eficiente que dejar las máquinas del centro de datos siempre encendidas aunque no estén ejecutando
ninguna tarea.
El número de veces que las máquinas deben apagarse dentro de los centros de datos dependerán de numerosos factores
de la naturaleza de la infraestructura, del servicio que ofrezcan, las tareas que ejecuten, los datos que almacenen o las
propiedades de los componentes hardware de los equipos.
El objetivo es proponer una solución teórica que encaje
perfectamente con la infraestructura tecnológica que da soporte a servicios para los que normalmente se utilizan centros
de datos: analı́ticas y tareas que siguen el paradigma MapReduce que no se ejecutan en tiempo real. Esto se debe a que
los sistemas de archivos distribuidos y computación paralela
que los sustentan posibilitan que los datos no se pierdan ni
corrompan y que la correcta ejecución de las tareas que llegan no se vea comprometida.
Queda como trabajo futuro demostrar que según la naturaleza del servicio al que da soporte el clúster o centro de
datos y que dependiendo del tipo de implementación que se
de al sistema que implemente estas mejoras teóricas que se
exponen en este trabajo esta solución de eficiencia energética
es perfectamente asumible en entornos de tiempo real o de
alta computación con la parametrización y sistemas de apoyo
necesarios. Además, resulta de alto interés conocer la tasa
de fallo en el hardware de comodidad que se usa en entornos
de producción reales ası́ como los costes derivados de estos
fallos.
XVI Jornadas de ARCA
68
69
Introducción de una nueva caracterı́stica en el modelo Qualitative Shape
Description (QSD)
L. Gonzalez-Abrila , Ll. Muserosb , Z. Falomirc and I. Sanzb
Applied Economics I Dept., Seville University, E-41018 Seville, Spain
Engineering and Computer Science Dep., Universitat Jaume I, E-12071 Castellón, Spain
c
Cognitive Systems (CoSy) Research Group, University of Bremen, DE-28334 Bremen, Germany
luisgon@us.es, museros@icc.uji.es, zfalomir@informatik.uni-bremen.de, isanz@uji.es
a
b
Abstract
El método para la descripción cualitativa de formas
or Qualitative Shape Description (QSD) (Falomir,
2011) esta basado en un conjunto de puntos relevantes que delimitan la forma. Este artı́culo completa un poco más dicha descripción incorporando
un valor numérico que cuantifica la importancia
de cada uno de los puntos relevantes dentro de la
forma, es decir, valora la relevancia de cada punto
de forma. Para ello, se lleva a cabo: (1) un proceso de eliminación del punto considerado y (2) se
cualifica cómo dicha eliminación afecta a la forma
a partir de los puntos adyacentes. Además, se presenta un ejemplo ilustrativo sobre el método.
1 Introducción
Este artı́culo se enmarca dentro de los trabajos realizados sobre descripción cualitativa de formas y colores de objetos
de algunos de los autores con otros investigadores (Falomir,
2011; Falomir et al., 2011, 2012, 2013c,a,b).
El objetivo planteado es ir un paso adelante y buscar un
valor numérico para cada punto relevante que cuantifique la
importancia que dentro de la forma tiene dicho punto.
2 Descripción cualitativa de formas
La descripción cualitativa de forma, del inglés Qualitative
Shape Description (QSD) analiza la pendiente de los pixels
dentro de los bordes de los objetos (fronteras) y extrae los
puntos relevantes de su forma (para una descripción más
detallada ver (Falomir, 2011; Falomir et al., 2012)). Cada
punto relevante P es descrito por un conjunto de cuatro caracterı́sticas las cuales pasamos a definir a continuación:
La primera caracterı́stica es el tipo de conexión entre
aristas (Edge Connection (EC)) que se describe a partir de
las siguientes etiquetas: linea linea, si el punto P conecta
dos rectas; linea curva, si P conecta una recta y una curva;
curva linea, si P conecta una curva y una recta; curva curva,
si P conecta dos curvas; o punto curvatura, si P es un
punto de curvatura de una curva.
Si EC no es un punto de curvatura, entonces la segunda
caracterı́stica es el Ángulo (A), el cual se discretiza usando
el sistema de referencia de ángulos (Angle Reference System) o ARS = {◦ , ALAB , AIN T } donde, ◦ (grados) indica
la unidad de medida; ALAB ={muy agudo, agudo, recto, obtuso, muy obtuso} se refiere al conjunto de etiquetas consideradas; y AIN T ={(0, 40], (40, 85], (85, 95], (95, 140], (140,
180]} especifica los intervalos de valores de los ángulos relativo a cada etiqueta.
Si EC es un punto de curvatura, la segunda caracterı́stica
es el tipo de curvatura (TC) definida por el sistema de referencia de los tipos de curvaturas (Type of Curvature Reference
System) o TCRS = {◦ , TCLAB , TCIN T }, donde ◦ indica la
amplitud en grados del ángulo de curvatura de P ; TCLAB =
{muy agudo, agudo, semicircular, plano, muy plano} se refiere al conjunto de etiquetas definidas; y TCIN T = {(0, 40],
(40, 85], (85, 95], (95, 140], (140, 180]} especifica los intervalos de valores de los ángulos relativos a cada etiqueta.
La tercera caracterı́stica considerada es la longitud comparada (L) definida a partir del sistema de referencias de
longitudes (Length Reference System) o LRS = {UL, LLAB ,
LIN T }, donde UL o unidad de longitud comparada indica
la relación entre la longitud del primer borde y la longitud del segundo borde que se conectan en el punto P ;
LLAB = {muy corto (msh), medio (half length –hl), un poco
corto (a bit shorter–absh), similar length (sl), un poco largo
(a bit longer–abl), longitud doble (double length–dl), mucho
más largo (ml)} indica el conjunto de etiquetas utilizadas para
comparar longitudes; y LIN T = {(0, 0.4], (0.4, 0.6], (0.6, 0.9],
(0.9, 1.1], (1.1, 1.9], (1.9, 2.1], (2.1, ∞)} especifica los intervalos de valores de las longitudes UL relativas a cada etiqueta.
La última caracterı́stica considerada es la Convexidad (C)
en el punto Pj . Si el punto Pj esta en la parte izquierda del
segmento definido por Pj−1 y Pj+1 , entonces Pj es convexo;
en otro caso se dice que Pj es cóncavo.
Por tanto, la forma completa de un objeto es descrita por
un conjunto de descripciones cualitativas de sus puntos relevantes como: [[EC1 , A1 | TC1 , L1 , C1 ], . . . , [ECn , An | TCn ,
Ln , Cn ]] donde n es el número total de puntos relevantes del
objeto y Ai | TCi denota el ángulo o el tipo de curvatura que
se presenta en el punto Pj .
Un ejemplo de una descripción cualitativa de forma de
70
un objeto compuesto por 6 puntos relevantes los cuales
conectan rectas y curvas y proporcionan diferentes longitudes
y ángulos se muestra en la Figura 1.
QSD (Objecto) = [
[linea_curva, obtuso, msh, convexo],
[punto_curvatura, muy_plano, sl, concavo],
[curva_linea, obtuso, ml, convexo],
[linea_curva, agudo, msh, convexo],
[punto_curvatura, muy_plano, sl, convex],
[curva_linea, agudo, ml, convexo] ].
Figura 1: Un ejemplo de descripción cualitativa de un objeto
curvilı́neo en una imagen digital.
3 Una medida de similitud a partir de una
descripción cualitativa de formas
Freksa (1991) definió que dos términos cualitativos (etiquetas) son vecinos conceptuales si se “puede pasar directamente
de una etiqueta a otra a partir de una transformación continua
sin pasar por ninguna otra etiqueta intermedia”. Por tanto,
ángulos como agudo y recto son vecinos conceptuales ya que
si se va aumentando el valor del ángulo este llega un momento
que pasa a convertirse en ángulo recto.
Ası́, se crean diagramas de vecinos conceptuales o Conceptual Neighbourhood Diagrams (CNDs) que se describen mediante grafos que contienen: (i) nodos que muestran las diferentes etiquetas, y (ii) caminos que conectan pares de nodos
adyacentes que siguen una transformción continua a partir de
la cual se pueden asignar pesos para establecer prioridades.
Con las diferentes caracterı́sticas de la descripción cualitativa
de formas pueden diseñarse grafos CND’s (Falomir, 2011)
y a partir de éstos obtener matrices de disimilitud entre las
diferentes etiquetas a partir del camino mı́nimo entre nodos.
Como se vió anteriormente, la descripción cualitativa de la
forma de un objeto se describe a partir de sus puntos relevantes (relevant points– RPs). Por tanto, para definir una medida
de similitud entre formas, primero se define una medida de
similitud entre puntos relevantes.
Dados dos puntos relevantes, denotados por RPA y
RPB , pertenecientes a la formas de dos objetos A y B,
respectivamente, una similitud entre ellos, denotada por
SimRP (RPA , RPB ), es definida como sigue:
�
ds(i)
SimRP (RPA , RPB ) = 1 −
wi
(1)
Ds(i)
Por lo tanto, para comparar dos formas, A y B cuyos
QSDs tienen el mismo número de puntos relevantes (denotado por m), la similud entre A y B, denotada por
SimQSD(A, B), se calcula a partir de (4) como sigue:
Fijado un punto relevante de A, RPAi , i = 1, · · · , m, se
calcula la similitud entre los pares de puntos relevantes del
conjunto
�
Ci = (RPAi , RPB1 ), · · · , (RPAm , RPBm+1−i ), (RPA1 , RPBm+2−i ), · · ·
�
· · · , (RPAi−1 , RPBm )
A partir de estos conjuntos, se define la similitud entre las
formas A y B como


m
1

�
SimQSD(A, B) = max
SimRP (RPA , RPB )
i=1,···,m  m

(RPA ,RPB )∈Ci
En general, si el número de puntos relevantes de las formas
A y B son n y m, respectivamente, y suponemos sin pérdida
de generalidad que n ≥ m, entonces hay n − m puntos relevantes de A sin su correspondiente punto relevante en B. De
este modo, C es el conjunto de todas las formas posibles de
combinar n − m puntos relevantes de A. De aquı́, si c ∈ C,
una nueva forma Ac es considerada tal que Ac esta dada por
todos los puntos relevantes de A menos los n−m puntos relevantes de A dados por la combinación c. Ahora Ac y B tienen
el mismo número de puntos relevantes y se puede calcular la
similitud entre ellos.
A partir del conjunto C y las similitudes entre Ac y B, se
define la similitud entre A y B como:
m
SimQSD(A, B) =
max {SimQSD(Ac , B)}
(2)
n c∈C
Hasta aquı́ se ha llevado a cabo un resumen de la teorı́a
cualitativa de formas desarrollada en los artı́culos anteriormente mencionados. En la siguiente sección se aborda el
problema descrito en este artı́culo y se da una solución a la
ponderación de los puntos relevantes en la descripción cualitativa de formas.
4
Importancia del punto relevante
Con el objetivo de ir detallando los desarrollos que siguen nos
basamos en un ejemplo. Ası́ consideramos un objeto cuyo
contorno esta delimitado por seis puntos según se puede observar en Figura 2. Para empezar, se ha elegido una forma
1
2
3
4
i∈I
donde ds(i) y Ds(i) representan la disimilitud entre los puntos relevantes y la máxima disimilitud con respecto a las caracterı́sticas obtenidas a partir de las tablas de disimilitudes
(I = {EC, A ∨ T C, C, L}, respectivamente). Además, los
pesos wi asignados a cada caracterı́stica cumplen wEC +
wA + wL + wC = 1, wA = wT C y wi ≥ 0.
6
5
Figura 2: Ejemplo de objeto a considerar.
71
la unidad, más se diferenciarán ambos objetos, en cuyo caso
más importancia tendrı́a el punto eliminado.
Por ello, para cada punto Pi del objeto en la Figura 2, se
denota
s2 = SimRP (RPF2 igura1 , RPF2 igura2 )
Figura 3: Objetos que resultan de la eliminación de un punto
del objeto dado en Figura 2.
donde los puntos relevantes conectan lı́neas con lı́neas.
En la Figura 3 puede verse como afecta a la forma la eliminación de un punto de su contorno. Evidentemente no todos los objetos son iguales y visualmente se observan muchas
diferencias entre ellos. Por tanto, la eliminación de un punto
del contorno no afecta de igual manera a la forma en que vemos un objeto, y ésta es la motivación que nos lleva a cuantificar la importancia que tiene sobre la forma de un objeto
todos y cada uno de sus puntos relevantes.
El contorno dado en Figura 2 tienen 6 puntos relevantes, si
consideramos el punto 1 (esquina superior izquierda) y eliminamos este punto nos queda el objeto de la Figura 4, el cual
tiene 5 puntos.
2
3
y
s6 = SimRP (RPF6 igura1 , RPF6 igura2 )
y se calcula el valor:
u1 = 2 − (s2 + s6 )
Una vez calculados todos los ui , i = 1, · · · , 6 se procede a
asignar un peso al punto relevante i como sigue:
w i = �6
1
i=1
6
�
wi ≥ 0
wi = 1,
i=1
Por tanto, dada una forma A, compuesta por n puntos relevantes se define la importancia de cada punto relevente Pi , y
se denota wi , como
4
1
w i = �n
donde
5
Figura 4: Ejemplo del objeto caso de estudio donde se elimina
el punto de la esquina superior izquierda.
Si quisiésemos calcular la similitud entre estos dos objetos directamente a partir de la definición de similitud entre
dos formas con diferente número de puntos relevantes (5),
tendrámos que hacer un total de 6 · 5 · 5 = 150 cálculos de
similitudes entre dos puntos relevantes, lo cual sera muy caro
computacionalmente (si tuvisemos n puntos serı́a n · (n −
1) · (n − 1)). Por ello, una solución más económica consiste en calcular sólo la similitudes entre los puntos relevantes adjacentes al punto relevante suprimido, lo cual se reduce
a dos cálculos de similitudes entre puntos relevantes exclusivamente ya que el resto es uno, puesto que su descripción
cualitativa no ha cambiado. Ası́ entre las formas dadas en
Figura 2 y Figura 4, habrı́a que calcular
SimRP (RPF2 igura1 , RPF2 igura2 )
y
SimRP (RPF6 igura1 , RPF6 igura2 )
Si no se hubiese suprimido el punto 1 en el objeto de la
Figura 2, estas similitudes serı́an máximas (la unidad) ya que
no cambiarı́a su descripción cualitativa. Por tanto, es natural suponer que cuanto más alejadas estén las similitudes de
· ui
con objeto de que todos los wi sumen la unidad y sean todos
positivos, es decir,
i=1
6
ui
ui
(3)
· ui
ui = 2 − (s(i−1)mod(n) + s(i+1)mod(n) )
La situación en general no es tan simple como la presentada con la Figura 2, ya que puede ocurrir que cuando se elimine algún punto del contorno del objeto, éste puede resultar
teniendo una descripción cualitativa muy diferente, no sólo
en los puntos adyacentes sino en el resto de la objeto, como
puede verse en Figura 5.
1
2
3
4
5
6
Figura 5: Ejemplo de un objeto donde la eliminación de un
punto de su contorno no es posible de realizar.
En estos casos, es evidente que la eliminación del punto
ha influido no solo en el contorno del objeto y en su interior,
sino en su misma entidad ya que se ha convertido en 3 objetos diferentes conectados por un punto. Por lo tanto, el peso
72
1
2
3
References
4
5
Figura 6: Resultado de eliminar el punto 6 en Figura 5.
Z. Falomir, L. Museros, J. A. Ortega, and F. Velasco. A
model for qualitative colour description and comparison.
In 25th International Workshop on Qualitative Reasoning
(QR), co-located at the 22nd Joint International Conference on Artificial Intelligence (IJCAI), Barcelona, Spain,
July 2011.
que debemos asignarle a este tipo de cambios es el máximo
posible, el cual se corresponde con el valor ui = 2, y de aquı́
el valor del correspondiente peso se sigue de la expresión (3).
De esta forma, cada punto relevante tiene una nueva
caracterı́stica en su definición, su peso wi y, por tanto, la
forma completa de un objeto es determina por un conjunto
de descriptores cualitativos más un peso de sus puntos
relevantes como sigue:
Z. Falomir, L. Museros, L. Gonzalez-Abril, M. T. Escrig, and
J. A. Ortega. A model for qualitative description of images
based on visual and spatial features. Computer Vision and
Image Understanding, 116: 698–714, 2012.
[[EC1 , A1 |TC1 , L1 , C1 , w1 ],. . . , [ECn , An |TCn , Ln , Cn ,wn ]]
Z. Falomir, Ll. Musero, L. Gonzalez-Abril, and I. Sanz. A
model for qualitative colour comparison using interval distances. Displays, 34: 250–257, 2013.
donde n es el número total de puntos relevantes del objeto
y Ai | TCi denota el ángulo o el tipo de curvatura que se
presenta en el punto Pj .
Esta nueva caracterı́stica puede ser tenida en cuenta a la
hora de definir una nueva similitud entre puntos relevantes.
Ası́, dados dos puntos relevantes, denotados por RPA y RPB ,
con pesos wA y wB pertenecientes a las formas de dos objetos
A y B, respectivamente, una similitud entre ellos, denotada
por SRP (RPA , RPB ), se define como sigue:
SRP (RPA , RPB ) = wA · wB · SimRP (RPA , RPB ) (4)
La utilización de estos pesos hace que se modifique
la expresión para el cálculo de similitudes entre formas.
SimQSD, como sigue:
SQSD(A, B) = max {SimQSD(Ac , B)}
(5)
c∈C
donde ya no es necesario multiplicar por el factor m
n ya que
a través de los pesos se cuantifica la importancia que cada
punto relevante tiene en su correspondiente forma.
5 Trabajo futuro
La continuación de este trabajo de investigación irá dirigida a
la implementación de esta nueva caracterı́stica en todos los algoritmos que actualmente tenemos desarrollados y recalcular
las similitudes sobre los objetos que hemos estado estudiando
en otros trabajos previos.
Agradecimientos
Este trabajo esta subvencionado por el proyecto de investigación nacional Hermes (Healthy and Efficient Routes in
Massive Open-Data Based Smart Cities-Citizen–TIN201346801-C4-1-R), por el proyecto Simon (Saving Energy by
Intelligent Monitoring -P11-TIC-8052). Además de por
la Comisión Europea a través de una beca FP7 Marie
Curie bajo el proyecto COGNITIVE-AMI (GA 328763), the
interdisciplinary Trasregional Collaborative Research Center Spatial Cognition SFB/TR 8, the Deutscher Akademischer Austausch Dienst (DAAD), Generalitat Valenciana
(proyectoGVA/2013/135) y Universidad Jaume I (proyecto
P11B2013-29).
Z. Falomir, Ll. Musero, V. Castelló, and L. Gonzalez-Abril.
Qualitative distances and qualitative image descriptions for
representing indoor scenes in robotics. Pattern Recognition
Letters, 38: 731–743, 2013.
Z. Falomir, L. Museros, L. Gonzalez-Abril, and F. Velasco.
Measures of similarity between qualitative descriptions of
shape, colour and size applied to mosaic assembling. Journal of Visual Communication and Image Representation,
24: 388–396, 2013.
Z. Falomir. Qualitative Distances and Qualitative Description of Images for Indoor Scene Description and Recognition in Robotics. PhD thesis, Universitat Jaume I
(Spain) and Universität Bremen (Germany), November
2011. http://www.tdx.cat/handle/10803/52897.
Christian Freksa. Qualitative spatial reasoning. In David M.
Mark and Andrew U. Frank, editors, Cognitive and Linguistic Aspects of Geographic Space, NATO Advanced
Studies Institute, pages 361–372. Kluwer, Dordrecht,
1991.
73
Conectando el Robot AIBO a ROS: Extracción de imágenes∗
Lucı́a Lillo-Fantova, Ricardo A. Téllez, Manel Velasco, Cecilio Angulo
Universitat Politècnica de Catalunya · UPC BarcelonaTech
Pau Gargallo 5. ESAII – Departament d’Automàtica, Barcelona, Spain 08028
lucialillofantova@gmail.com, tellezatwork@gmail.com,
{manel.velasco, cecilio.angulo}@upc.edu
Abstract
En este documento se realiza una introducción al
trabajo realizado con el robot AIBO, de Sony, para
la obtención de imágenes, ası́ como su tratamiento con el objetivo que el robot navegue de forma
autónoma mediante algoritmos de visión artificial.
A nivel práctico, el principal punto de interés del
artı́culo se centra en el entorno de programación,
que se ha exportado al marco de ROS (Robot Operating System), de forma que se pueda hacer uso de
la extensa biblioteca de algoritmos ya desarrollados
en este entorno.
1.
Introducción
Este proyecto surge a partir de la voluntad de recuperar la
funcionalidad del robot AIBO de Sony [Decuir et al., 2004],
actualmente discontinuado en su producción y soporte, dentro de un entorno de programación actualizado y potente
[Kertész, 2013], ası́ como dotarlo de las herramientas necesarias [Kolovrat, 2013] para proporcionarle la capacidad de
navegar autónomamente en un entorno de trabajo mediante
algoritmos de visión artificial.
Como se muestra en la Figura 1, a partir del sistema
operativo de AIBO, OPEN-R SDK, se ha integrado el entorno de programación URBI [Baillie, 2005a; 2005b], mediante el cual se enviarán datos a través de una estructura servidor/cliente entre el robot, servidor, y un ordenador externo, cliente. Los datos recibidos por el cliente deberán ser almacenados en un buffer temporal para su posterior tratamiento mediante algoritmos en OpenCV [Bradski, 2000], encargado de su transformación en imágenes interpretables por ROS [Quigley et al., 2009]. La voluntad de
integrar ROS en el proyecto nace como una oportunidad de
poder hacer uso de la gran cantidad de librerı́as y herramientas que incorpora este sistema operativo para facilitar
la creación de aplicaciones robóticas. Entre ellas, nos ofrece
herramientas como SLAM [Huang and Dissanayake, 2007;
Riisgaard and Blas, 2005], SIFT [Flores and Braun, 2011] o
RANSAC, de gran utilidad para el proyecto.
∗
Este trabajo ha sido financiado parcialmente por los proyectos
de investigación PATRICIA (TIN2012-38416-C03-01) y EVENTS
(DPI2010-18601), ambos financiados por el Ministerio de Economı́a
y Competitividad del Gobierno de España.
Figura 1: Estructura del modelo de integración del robot AIBO de Sony en ROS.
A partir de aquı́ se definen una serie de objetivos concisos
a seguir durante el desarrollo del trabajo.
Comparación de las frecuencias de ciclo de ROS para
mejorar tanto la frecuencia de publicación de las imágenes como del resto de sensores y actuadores.
Optimización del tamaño de los buffers para la mejora
de la frecuencia de publicación.
Reducir el retraso en el procesado de las imágenes para
mejorar la toma de decisiones en tiempo real.
A partir de esta conexión y mediante algoritmos de visión
artificial se habrá desarrollado una base óptima de programación para el funcionamiento del robot AIBO en tiempo real.
2.
El robot AIBO
AIBO es un robot cuadrúpedo creado por SONY e introducido en 1999 con el modelo ERS-110 [Téllez, 2004]. Fue el
primer robot de este tipo en el mercado. Inicialmente SONY
enfocó este producto como un robot de entretenimiento para el uso doméstico, pero tuvo una gran repercusión entre la
comunidad cientı́fica puesto que facilitaba la investigación en
campos como la inteligencia artificial y la interacción entre
robots [Zhang and Chen, 2007].
SONY comenzó su comercialización limitando el acceso
al lenguaje de programación a ellos mismos y a los participantes de la RoboCup. En 2001 retiró los derechos de autor
al kit de programación del AIBO permitiendo ası́ el uso no
comercial de éste. El kit incluı́a los lenguajes de programción R-CODE, OPEN-R SDK y el Framework remoto de AIBO. Además de las propias plataformas oficiales de SONY
74
la comunidad de usuarios desarrolló toda una serie de plataformas sobre el robot para facilitar la programación de éste,
tales cómo Tekkotsu [Tek, 2014], URBI [Gostai, 2014] o la
compilación cruzada de Webots [Hohl et al., 2006].
El proyecto ideado por SONY únicamente duró siete años,
parando la producción en 2006, pero a pesar de la brevedad
lanzó toda una serie de modelos en tres generaciones de robot
(Figura 2). Pese a la interrupción de la fabricación hoy en dı́a
aún se encuentran eventos tales cómo la Convención Internacional de AIBO donde se realizan intercambios de software
open source.
2.2.
Software
El software OPEN-R SDK es el que permite mayor libertad
de programación de entre los subministrados por Sony.
OPEN-R es un lenguaje open source basado en C++ de bajo nivel que permite el acceso y modificación de cualquier
variable del robot. Está fundamentado en la creación de objetos que se comunican entre ellos mediante mensajes entre
sujetos y observadores (Figura 3).
Objeto A
Objeto B
Preparado
Datos
Sujeto
Figura 2: Modelos de AIBO en el perı́odo 1999-2006.
2.1.
Hardware
AIBO presenta un microprocesador de 64 bits funcionando a una frecuencia de 576MHz. La memoria del robot está
dividida en dos elementos, una memoria RAM interna para el
desarrollo de funciones de 64MB y una memoria externa de
32MB donde se encuentran los programas a ejecutar por el
robot y que el usuario puede modificar.
Como sensores, dispone de:
un sensor de presión en cada una de las patas (pawLF,
pawLH, pawRF, pawRH) y otro en el mentón (chinSensor), un sensor electrostático en la cabeza (headSensor) y otros tres en el lomo (backSensorF, backSensorM,
backSensorR), ası́ como un sensor de temperatura y un
sensor de vibración.
una cámara CMOS (camera) con parámetros regulables
como la resolución y el formato de la imagen; infrarrojos para la detección de la distancia, uno en el pecho
(distanceChest), además de otros dos en la cabeza, (distanceNear) y (distance).
un micrófono estéreo en cada oreja con un buffer de
2048 bytes donde se encuentra el último sonido captado.
tres acelerómetros (accelX, accelY, accelZ).
El robot controla toda una serie de actuadores que afectan
al entorno:
cuatro patas, cada una con tres articulaciones, por tanto
doce motores en total para el control de las extremidades; tres grados de libertad sobre la cabeza; inclinación
de las orejas; dos grados de libertad en la cola; control
de la obertura de la boca. Resultando todo en un total de
20 motores.
red Wi-Fi; micrófono para reproducir sonidos guardados
previamente en su Memory Stick; un conjunto de LEDS
para comunicar el estado del robot.
Observador
Figura 3: Comunicación entre objetos con OPEN-R.
Con posterioridad se desarrolló Tekkotsu, una aplicación
open source para el diseño de programas en AIBO. Maneja
tareas de bajo nivel y está completamente desarrollada sobre
C++. Con el objetivo que el movimiento del robot AIBO sea
lo más fluido posible, se diferencia entre el proceso principal Main, donde se realizan los procesos relacionados con la
aplicación, y el proceso de captación de datos del AIBO MotionManager. La estructura que comunica estos dos procesos
está dada por el MotionCommand y se encuentra en una zona
de la memoria compartida por ambos.
URBI, por otra parte, es un software open source generalista para el control de robots y sistemas complejos. Está
diseñado para realizar tareas en paralelo y está dirigido por
eventos, dos de los principales lemas en la programación de
sistemas complejos. Otro de los principales objetivos de este
lenguaje es la compatibilidad entre robots facilitando ası́ la
tarea de programación, pudiendo utilizar los mismos objetos
para diversos robots.
URBI presenta una librerı́a de componentes UObject escritos en C++ que incorpora un interfaz de programación de
robots que describe motores, sensores y algoritmos estándars
de robots. Estos objetos pueden ser usados dentro del urbiscript, como elementos locales, o bien como elementos remotos directamente sobre Windows, Linux o Mac OSX para
tener una mayor capacidad de cálculo.
Urbiscript es el encargado de orquestrar los diversos componentes para que interactuen entre ellos generando ası́ funciones de alto nivel, pero con los dos lemas principales de la
robótica nombrados anteriormente en mente.
La elevada compatibilidad de este software se debe a la estructura cliente/servidor de URBI que permite la implementación dentro de cualquier lenguaje de programación que tenga
la capacidad de crear y trabajar con sockets TCP.
La última versión compatible con el robot AIBO es URBI
1.5, que no permite la implementación directa de URBI como
objeto de ROS (sı́ con URBI 2.1). Es por esto que se trabajará
con un cliente de URBI que será quien envı́ara los datos a
ROS.
75
3. Integrando ROS en URBI
ROS, Robot Operating System, incorpora gran cantidad de
librerı́as y herramientas para facilitar la creación de aplicaciones robóticas. En consecuencia se ha optado por la integración de las dos plataformas. Para ello se ha generado un
script de C++ donde se define un cliente de URBI, el ordenador, que será el encargado de recibir y enviar los datos al
servidor, el robot. Para que el robot AIBO sea capaz de interactuar con URBI se ha incorporado un objeto de URBI en la
memoria programable de éste (Memory stick).
La transmisión de datos desde el robot AIBO al cliente de
URBI se realiza en primer lugar mediante el establecimiento de una conexión cliente-servidor con un socket TCP/IP.
Posteriormente se realizarán callbacks a las funciones especificadas por el cliente y que devolverán los datos solicitados.
Finalmente, el cliente también podrá enviar órdenes a AIBO.
Paralelamente, también se ha creado un nodo de ROS dentro del cuál se dispone de los tópicos correspondientes a los
diferentes actuadores y sensores. Para finalizar la tarea de publicación de los datos se debe crear una serie de publishers
que publiquen la información en el tópico correspondiente,
es decir, envı́en los datos recibidos por el cliente al nodo de
ROS creado. Por último, sólo queda cubrir el envı́o de órdenes a través de ROS el cuál será realizado con la creación de
subscribers al tópico que se desee, quienes a su vez enviarán
la información al cliente. Éste también enviará la información
al servidor, AIBO, el cuál finalmente las llevará a cabo.
4.
Obtención de imágenes
El robot AIBO dispone de una cámara de tecnologı́a
CMOS que presenta una resolución de 350000 pı́xels (480 x
720) [Pérez et al., 2010a; Pérez et al., 2010b]. Las imágenes
captadas tendrán que ser convertidas para permitir el procesamiento aplicado posteriormente.
4.1.
ufloat Contiene los valores si los datos enviados son del
tipo DATA DOUBLE. Es el caso de todos los datos enviados por el AIBO a excepción de los mensajes de sonido e imagen, es decir, los valores de los sensores y
actuadores.
void* Variable interna que apunta a la zona de almacenaje.
std::string Si la información enviada es de tipo
DATA STRING se le asocia este tipo.
De entre ellas se seleccionan los datos del tipo
DATA BINARY, representados por mensajes de tipo UBinary
(Figura 4). Finalmente, se escoge la información del subtipo
UImage.
Figura 4: Obtención de las imágenes.
Estructura de las Imágenes
El primer punto a tratar es la transformación de las imágenes a partir de URBI en un formato adecuado para la publicación en ROS. El formato correspondiente a los tópicos
de imagen en ROS es sensor msgs::Image. Para realizar la
conversión se dispone de la plataforma cv bridge, una librerı́a de OpenCV que facilita la conversión entre imágenes
de OpenCV a mensajes de ROS. Para esto se debe transformar
igualmente la imagen a cv::Mat o IplImage según la aplicación pero representan el mismo formato. En consecuencia el
primer paso será la transformación de los datos a OpenCV.
Primero se operan los mensajes de URBI de tipo UMessage
donde si el contenido es correcto contendrá un apuntador al
valor del mensaje. Los datos adquiridos serán de tipo UValue
el cuál contiene varias variables.
UDataType Contiene la información sobre el tipo de datos enviados.
UDictionary* Contiene los datos si son de tipo
DATA DICTIONARY.
urbi::UBinary Contiene los datos enviados si éstos son
de tipo DATA BINARY. Concretamente representa el
caso de la transmisión de imágenes (Cuadro 1).
BINARY UNKNOWN
BINARY IMAGE
BINARY SOUND
struct{
void* data
size t size
}common
data
unsigned char*
size
size t
width
size t
height
size t
imageFormat
UImageFormat
data
char
rate
size t
size
size t
sampleSize
size t
channels
size t
sampleFormat USoundSampleFormat
soundFormat
USoundFormat
Cuadro 1: Tipos de información dentro de la variable UBinary.
Esta información será guardada en un buffer de 4 imágenes ya en formato jpg, por lo que se presentará una imagen
76
Resultados
5Hz
7.5 Hz
10 Hz
10
9
8
7
6
5
4
En este apartado se realizará un estudio sobre la velocidad
de envı́o de imágenes entre el robot AIBO y el ordenador donde corre en núcleo de ROS. La frecuencia de publicación de
imágenes viene limitada principalmente por la capacidad del
propio robot para el envı́o de imágenes. Se ha de considerar
que éste se dejó de fabricar en 2006 y que el último modelo
fue diseñado en 2005, por tanto existen limitaciones de hardware que son insalvables en la comunicación cliente-servidor
como son el microprocesador, el módulo wi-fi y la calidad de
la imagen.
Inicialmente se ha realizado un primer estudio con un rango de frecuencias de funcionamiento del nodo de ROS cercanas al valor deseado para la publicación de imágenes que
estarı́a entorno a los 25Hz.
Tal y como se muestra en la Figura 5, no se ha obtenido
el comportamiento esperado debido a las propias limitaciones del entorno, provocando ası́ caı́das en el envı́o de datos.
Conjuntamente a esto, se detecta una tendencia negativa de la
frecuencia media de publicación. Esta tendencia se justifica
ya que la conexión cliente/servidor es posterior al encendido
del AIBO, hecho que provoca que el buffer interno del robot
se encuentre lleno inicialmente. En consecuencia, en el instante inicial, la frecuencia es la deseada pero posteriormente
no es capaz de adquirir las imágenes a este ritmo ya que el
robot no es capaz de funcionar a esta frecuencia.
3
0
200
400
600
800
1000
1200
Muestras
1400
1600
1800
2000
Figura 6: Comparativa de las frecuencias de publicación entorno los 7.5Hz.
baja para ciertas aplicaciones. Debido a esto no se ha procedido a estudios posteriores con medidas más elevadas de
comprensión de la imagen.
Evolución temporal según la frecuenca de ROS
11
5 Hz
7.5 Hz
10 Hz
10
Frecuencia de publicación [Hz]
5.
Evolución temporal según la frecuenca de ROS
11
Frecuencia de publicación [Hz]
de 3 canales R, G, B que posteriormente será abierta mediante OpenCV y transformada en una imagen de tipo cv::Mat,
tipo obligado para la implementación de las funciones de
la librerı́a de CV Bridge. Mediante ésta transformaremos las
imágenes a un formato interpretable por ROS y que serán enviadas al tópico de imagen correspondiente.
9
8
7
6
5
4
3
2
1
0
500
1000
1500
Muestras
Figura 7: Comparativa de las frecuencias de publicación entorno los 7.5Hz, con la imagen jpg comprimida al 80 %.
Evolución temporal según la frecuenca de ROS
Frecuencia de publicación [Hz]
30
20 Hz
25 Hz
30 Hz
25
6. Conclusiones
20
15
10
5
0
0
200
400
600
800
1000
1200
Muestras
1400
1600
1800
2000
Figura 5: Comparativa de las frecuencias de publicación entorno los 25Hz.
Por todo ello, se realiza un estudio de frecuencias acorde al
ritmo de trabajo del robot, entorno a los 7.5 Hz, reflejado en
la Figura 6.
Finalmente se ha procedido a disminuir la calidad de la
imagen comprimida (jpeg) que envı́a el robot AIBO para mejorar la velocidad de transmisión. Se ha definido una compresión del 80 %.
Tal y cómo se puede observar en la Figura 7 se detecta una
mejorı́a, que serı́a más destacable con un factor de compresión mayor pero esto implicarı́a una calidad de imagen muy
En este documento se documenta el trabajo realizado con
el robot AIBO, de Sony, para la obtención de imágenes, ası́
como su tratamiento con el objetivo que el robot navegue de
forma autónoma mediante algoritmos de visión artificial. A
nivel práctico, el principal punto de interés del artı́culo se
centra en el entorno de programación, que se ha exportado
al marco de ROS (Robot Operating System), de forma que
se pueda hacer uso de la extensa biblioteca de algoritmos ya
desarrollados en este entorno.
En el apartado de experimentación se ha observado que la
frecuencia óptima de trabajo del nodo de ROS se deberı́a encontrar entre los 5 y los 7.5Hz para una frecuencia de publicación constante y un nivel de compresión de la imagen
del 80 % para mantener unos mı́nimos estándares de calidad.
Este valor se encuentra alejado de los valores óptimos de trabajo, que se encuentran entorno los 25Hz, lo que comportará
limitaciones sobre los algorismos de tratamiento de imágenes a realizar sobre AIBO. Futuros trabajos deberı́a incidir en
evitar que la transmisión de datos sea el principal cuello de
botella del proceso.
77
Referencias
[Baillie, 2005a] Jean-Christophe Baillie.
Specification. 2005.
URBI Language
[Baillie, 2005b] Jean Christophe Baillie. URBI: Towards a
universal robotic low-level programming language. In
2005 IEEE/RSJ International Conference on Intelligent
Robots and Systems, IROS, pages 3219–3224, 2005.
[Bradski, 2000] G. Bradski. The OpenCV Library.
Dobb’s Journal of Software Tools, 2000.
Dr.
[Decuir et al., 2004] John D. Decuir, Todd Kozuki, Victor
Matsuda, and Jon Piazza. A friendly face in robotics:
Sony’s aibo entertainment robot as an educational tool.
Computers in Entertainment, 2(2):14, 2004.
[Flores and Braun, 2011] Pablo Flores and Juan Braun. Algoritmo SIFT : fundamento teórico. pages 1–5, 2011.
[Gostai, 2014] Gostai. URBI Doc for Aibo ERS2xx ERS7
and URBI 1.0, 2014. Data de consulta: 6 de març de 2014.
[Hohl et al., 2006] Lukas Hohl, Ricardo Tellez, Olivier Michel, and Auke Jan Ijspeert. Aibo and Webots: Simulation,
wireless remote control and controller transfer. Robotics
and Autonomous Systems, 54(6):472–485, June 2006.
[Huang and Dissanayake, 2007] Shoudong Huang and Gamini Dissanayake. Convergence and Consistency Analysis
for Extended Kalman Filter Based SLAM. IEEE Transactions on Robotics, 23(5):1036–1049, October 2007.
[Kertész, 2013] Csaba Kertész. Improvements in the native
development environment for Sony AIBO. International
Journal of Interactive Multimedia and Artificial Intelligence, 2(3):51, 2013.
[Kolovrat, 2013] Stipe Kolovrat. Development of Android
Application for Sony Aibo ERS-7 robot. Master’s thesis,
Universitat Politècnica de Catalunya, 2013.
[Pérez et al., 2010a] Xavier Pérez, Cecilio Angulo, and Sergio Escalera. Vision-based Navigation and Reinforcement
Learning Path Finding for Social Robots. PhD thesis, Universitat Politécnica de Catalunya, 2010.
[Pérez et al., 2010b] Xavier Pérez, Cecilio Angulo, Sergio
Escalera, and Diego E. Pardo. Vision-based navigation
and reinforcement learning path finding for social robots.
In Jornadas ARCA 2010, June 2010.
[Quigley et al., 2009] Morgan Quigley, Ken Conley, Brian P.
Gerkey, Josh Faust, Tully Foote, Jeremy Leibs, Rob Wheeler, and Andrew Y. Ng. ROS: an open-source robot operating system. In ICRA Workshop on Open Source Software,
2009.
[Riisgaard and Blas, 2005] Søren Riisgaard and Morten Rufus Blas. Slam for dummies: A tutorial approach to simultaneous localization and mapping. Technical report, 2005.
[Tek, 2014] Tekkotsu, 2014. Fecha de consulta: 18/06/2014.
[Téllez, 2004] Ricardo A. Téllez. Aibo Quickstart Manual.
Technical report, Grup de Recerca en Enginyeria del Coneixement (GREC), 2004.
[Zhang and Chen, 2007] Jiaqi Zhang and Qijun Chen. Learning based gaits evolution for an AIBO dog. 2007 IEEE
Congress on Evolutionary Computation, pages 1523–
1526, September 2007.
XVI Jornadas de ARCA
78
79
Qualitative Simulation of a Sentiment Analysis Theory
Ismael Sanz, Lledó Museros
Universitat Jaume I
Castelló de la Plana, Spain
{isanz,museros}@uji.es
Abstract
This paper presents a qualitative sentiment analysis theory
based in a well-known sentic computing theory presented in
[1]. This theory is simulated in order to determine the sentiment polarity (negative, neutral or positive sentiment) of a
tweeter message.
1. Introduction
Sentiment analysis refers to the use of natural language
processing, text analysis and computational linguistics to
identify and extract subjective information in source materials. Generally speaking, sentiment analysis aims to determine the attitude of a speaker or a writer with respect to
some topic or the overall contextual polarity of a document.
The attitude may be his or her judgment or evaluation, affective state (that is to say, the emotional state of the author
when writing), or the intended emotional communication
(that is to say, the emotional effect the author wishes to have
on the reader).
With the boom of the Web 2.0, users are more and more
active in the web by interacting, sharing and collaborating
through social networks, blogs, wikis, and other collaborative media. With this collaboration a “collective intelligence” has emerge in the web. By collective intelligence it
is understand the intelligence that emerges from the collaboration, collective efforts, and competition of many individuals. This collective intelligence has spread to many different
areas in the Web, as commerce, politics, tourirm, education,
health, and so on. For instance, users usually perform the
on-line review of services and products, and even spread
politics opinion. All these contribution are valuable for
future buyers or voters. The distillation of knowledge from
the huge amount of unstructured information on the Web
can be a key factor for tasks such as social media marketing,
branding, product positioning, and corporate reputation
management. For instance, in the tourism sector a sentiment
analysis theory would help to determine: (i) if a Social Media Marketing1 campaign has succed; and (ii) the opinion of
1
SMM refers to the process of gaining website traffic or attention through
social media sites
Luis González-Abril
Universidad de Sevilla
Sevillla, Spain
luisgon@us.es
the clients (of a hotel, travel agency, transport company, and
so on) that can influence to other future clients.
But, these online social data, however, remain hardly accessible to computers, as they are specifically meant for human
consumption.
Therefore, to develop a sentiment analysis theory able to
give this type of information to the companies is a valuable
tool for business decision-making. Recently, in the literature
have appeared approaches dealing with the development of
sentiment analysis theories. An Emotion Ontology (EMO)
has been developed in [2]. [3] reviews past, present, and
future trends of sentiment analysis. It covers common tasks
for sentiment analysis along with the main approaches, and
discusses the evolution of different tools and techniques—
from heuristics to discourse structure, from coarse- to finegrained analysis, and from keyword to concept-level opinion mining. The article also discusses the emergence of
multimodal sentiment analysis and considers future tendencies. In [4] a two-step method combining iterative regression and random walk with in-link normalization is proposed to build a concept-level sentiment dictionary. ConceptNet is exploited for propagating sentiment values based
on the assumption that semantically related concepts share
common sentiment. Another peculiarity of the article is that
it uses polarity accuracy, Kendall distance, and averagemaximum ratio, instead of mean error, to better evaluate
sentiment dictionaries. Chihli Hung and Hao-Kai Lin [5]
propose the re-evaluation of objective words in SentiWordNet2 by assessing the sentimental relevance of such words
and their associated sentiment sentences. Two sampling
strategies are proposed and integrated with support vector
machines for sentiment classification. Bosco, Patti and
Bolioli [6] focuses on the main issues related to the development of a corpus for opinion mining and sentiment analysis both by surveying existing works in this area and presenting, as a case study, an ongoing project for Italian,
called Senti-TUT, where a corpus for the investigation of
irony about politics in social media is developed. Amigó
and his colleagues presents in [7] presents the results of the
2 SenticWordNet is a lexical resource for opinion mining. SentiWordNet
assigns to each synset (cognitive synonyms) of WordNet (a large lexical
database of English) three sentiment scores: positivity, negativity, objectivity.
80
second RepLab competitive evaluation campaign for Online
Reputation Management systems (RepLab 2013), which is a
competition focused on the process of monitoring the reputation of companies and individuals, and asks participating
systems to annotate different types of information on tweets
containing the names of several companies.
Cambria and his colleagues presented in [1] a sentic computing theory for social media marketing. Sentic computing
uses a common sense reasoning [8] approach coupled with a
novel emotion categorization model [9].
Emotions are subjective and qualitative in nature, and the
use of common sense, suggested us that qualitative reasoning could be suitable to manage this type of information.
Therefore, this paper presents a qualitative interpretation of
the sentic computing work presented in [1]. This interpretation is simulated in order to test its behavior when determining the polarity of a text.
2. Qualitative Sentiment Analysis Theory
The sentic computing theory in [1] is based in the Hourglass
of Emotions (Figure 1). This model constitutes an attempt to
emulate Marvin Minsky’s conception of emotions. The
Hourglass of Emotions is specifically designed to recognize,
understand and express emotions in the context of humancomputer interaction (HCI). In the model, in fact, affective
states are not classified, as often happens in the field of
emotion analysis, into basic emotional categories, but rather
into four concomitant but independent dimensions—
Pleasantness, Attention, Sensitivity and Aptitude—in order
to understand how much respectively:
1. the user is amused by interaction modalities (Pleasantness)
2. the user is interested in interaction contents (Attention)
3. the user is comfortable with interaction dynamics (Sensitivity)
4. the user is confident in interaction benefits (Aptitude)
sity of the emotion. The concomitance of the different affective dimensions makes possible the generation of compound
emotions such as ‘love’, which is given by the sum of ‘joy’
and ‘trust’, or ‘aggressiveness’, given by the concomitance
of ‘anger’ and ‘anticipation.
Sentic computing theory in [1] determines the sentimental
polarity of a text by applying Cambria’s formula:
where each concept represents the affective valence for each
sentic dimension of the term oi in the text; N is the total
number of retrieved concepts and 9 is the normalization
factor (the maximum value of the numerator in fact is given
by the sentic vector [3, ±3, 0, 3] and the minimum by [−3, 0,
±3, −3]). In the formula, Attention and Sensitivity are taken
in absolute value since, from the point of view of polarity
rather than affection, all of their sentic values represent
positive and negative values respectively (e.g. ‘anger’ is
positive in the sense of level of activation of Sensitivity but
negative in terms of polarity and ‘surprise’ is negative in the
sense of lack of Attention but positive from a polarity point
of view).
In order to create a qualitative version of this sentic computing theory, Garp3 software [10] has been used, which is a
workbench for building, simulating, and inspecting qualitative models.
As Cambria’s formula uses Attention and Sensitivity dimension as absolute values, it has been implemented using
Garp3 defining the Model Fragment Tree shown in Figure
2. This means that a negative or a positive value of the attention dimension (AttentionN and AttentionP respectively)
have the same effect in the polarity of the text, in this case
they have a positive influence in the result (Figure 3 and 4).
The same happens with the dimension sensitivity, but in this
case they have a negative influence (Figure 5 and 6).
Figure 2. Model Fragment Tree for Cambria Sentic Computing Theory.
Figure 1. Hourglass of Emotions.
Each affective dimension is characterized by six levels of
activation, called ‘sentic levels’, which determine the inten-
Using Garp 3 it is also necessary to define the system scenario (Figure 7), which defines the different model dimensions (emotional categories in this case). In the scenario the
influence of each emotional dimension is defined. In this
case, we have make a qualitative reference system for each
dimension. This qualitative reference system is defined by
three symbols, which are {plus, zero, min}, the symbol
81
“plus” means that the dimension has a big value, “zero”
means that the dimension does not appear or it can be discarded, and “min” means that the dimension has a low
value.
the final polarity of this sentence is positive. But the model
can also presents uncertainty, for instance when: pleasantness = Zero; attention = Min; sensitivity = Plus ; aptitude =
Plus, then the model return three possible solution: positive,
neutral and negative. This happens because the system is not
able to determine for instance if a positive value in a dimension is bigger or smaller than a negative value of another
dimension.
Figure 5. SensitivityN polarity influence
Figure 3. AttentionN polarity influence.
Figure 6. SensitivityP polarity influence
Figure 4. AttentionP polarity influence.
If the scenario is executed without indicating a initial qualitative value for each sentiment dimension, then the program
returns all the possible combinations that the four emotional
categories can generate and the polarity associate to each
combination (Figure 8). This means that the program calculates between 81 and 243 solutions (81*3).
If the user wants to find an specific solution, then it is necessary to indicate the qualitative value (Plus, Zero or Min)
of each emotional category in the initial scenario. As an
example, if a sentence has next values: pleasantness = Zero;
attention = Min; sensitivity = Zero; aptitude = Plus, then,
Figure 7. System Scenario
82
Figure 8. Extract of the system result when no initial values
are given to the sentiment dimensions.
3. Experiments and Results
We have test the qualitative simulator created to analyze the
polarity of tweeter messages about the sales of the new
Samsung Galaxy 5 mobile phone. The sentences analyzed
are in Spanish, and they are the ones shown in figure 9.
Figure 10. Words considered in the tweets (first column is
the word, second one the sentiment dimension for this word,
and third one the quantitative value assigned).
Figure 11. Initial scenario for analyzing the tweets.
Figure 12. Result of the simulation.
Figure 9. Sentences analyzed.
For each sentence in Figure 9, the words in Figure 10 are
considered by giving them the values for sentiment dimensions that can be seen in the same figure. Using the quantitative formula of Cambria the polarity of the sentences in
general is very positive. Then, what we have done is to
translate the values in Figure 10 to the corresponding qualitative ones, and the experiment has been executed in order
to determine the polarity (Figure 11). And the solution of
the qualitative simulation is the one shown in Figure 12. As
it can be seen the polarity is also positive, which means that
the system works similarly to the quantitative one.
4. Conclusions and Future Work
This paper presents a qualitative simulation of the sentiment
analysis theory presented in [1]. The experiments done
demonstrate that the simulation obtains similar results than
the original one. This means, that the theory has been qualitatively well simulated using Garp3, but by developing a
qualitative theory we have added semantics to the method.
As future work we intend to improve the qualitative theory
presented by defining different granularity levels (for instance use more than 3 levels for the qualitative values).
Also, our intention is to apply the new theory not only to
determine the general polarity of a text about the quality of a
product, but also the polarity of the individual features of
this product.
83
Acknowledgements
This work has been partially supported by the Andalusian
Regional Ministry of Economy (project SIMON TIC-8052),
the Spanish Ministry of Economy and Competitiveness
(under project number TIN2011-24147), by Universitat
Jaume I-Fundació Bancaixa (under project number
P11B2013-29), and by Generalitat Valenciana under project
GVA/2013/135.
References
[1] E. Cambria, M. Grassi, A. Hussain, and C. Havasi.
Sentic Computing for Social Media Marketing. Multimedia
Tools and Applications, Volume 59, Issue 2, pp. 557-577,
July 2012.
[2] J. Hastings, W. Ceusters, B. Smith, and K. Mulligan.
The Emotion Ontology: Enabling Interdisciplinary
Reasearch in the Affective Sciences. Modelling and Using
Context. Lecture Notes in Computer Sicence, Volume
69677, pp. 119-123, 2011.
[3] E. Cambria, B. Schuller, Y. Xia, and C. Havasi, New
Avenues in Opinion Mining and Sentiment Analysis,
Knowledge-Based Approaches to Concept-Level Sentiment
Analysis, IEEE Computer Society, pp.15-21, March/April
2013.
[4] A. Charng-Rurng Tsai, C. Wu, R. Tzong-Han Tsai, and
J. Hsu, Building a Concept-Level Senitment Dictionay
Based on Commonsense Knowledge, Knowledge-Based
Approaches to Concept-Level Sentiment Analysis, IEEE
Computer Society, pp.15-21, March/April 2013.
[5] C. Hung, and H. Lin, Using Objective Words in SentiWordNet to Improve Word-of-Mouth Sentiment Classification, Knowledge-Based Approaches to Concept-Level
Sentiment Analysis, IEEE Computer Society, pp.15-21,
March/April 2013
[6] C. Bosco, V. Patti, and A. Bolioli, Developing Corpora
for Sentiment Analysis: The Case of Irony and Senti-TUT,
Knowledge-Based Approaches to Concept-Level Sentiment
Analysis, IEEE Computer Society, pp.15-21, March/April
2013.
[7] E. Amigó, J. Carrillo de Albornoz, I. Chugur, A.
Corujo, J. Gonzalo, T. Matín, E. Meij, M. de Rijke, and D.
Spina. Overview of RepLab 2013: Evaluating Online Reputation Monitoring Systems. Information Access Evaluation.
Multilinguality, Multimodality and Visualization. Lecture
Notes in Computer Science Volume 8138, pp. 333-352,
2013.
[8] E. Cambria, A. Hussain, C. Havasi, C. Eckl. Common
sense computing: from the society of mind to digital intuition and beyond. In Lecture Notes in Computer Science,
Volume 5707, pp.252-259, 2009.
[9] E. Cambria, A. Hussain, C. Havasi, C. Eckl. SenticSpace: visualizing opinions and sentiments in a multidimensional vector space. In Lecture Notes in Artificial
Intelligence, Volume 6279, pp. 385-393, 2010.
[10] Garp
3
download
https://ivi.fnwi.uva.nl/tcs/QRgroup/QRM/software/,
visited October 2014.
page
last
XVI Jornadas de ARCA
84
85
Sincronización de Robots AIBO. Un Estudio Comparativo∗
Diego Muñoz, Manel Velasco, Cecilio Angulo
Universitat Politècnica de Catalunya · UPC BarcelonaTech
Pau Gargallo 5. ESAII – Departament d’Automàtica, Barcelona, Spain 08028
diegoamg89@gmail.com, {manel.velasco, cecilio.angulo}@upc.edu
Abstract
El trabajo tiene por objetivo implementar un conjunto de módulos de software que permitan integrar
la plataforma robótica AIBO en el marco de trabajo
ROS (Robot Operating System). El problema principal radica en el método utilizado para comunicarlos. Inicialmente se estudiaron los diferentes software alternativos con los que poder operar. Luego
se compararon varios métodos de programación, de
forma que un análisis cuantitativo permitió decidir
el método más adecuado. Finalmente se implementaron los módulos que facilitan la integración con
ROS. Por un lado el módulo de control, al que se
le han aplicado unos criterios de valoración y se
ha puesto a prueba su funcionamiento, y por otro
el módulo que facilita la integración de un modelo
de visualización 3D. Con todo este trabajo desarrollado, se realizó la aplicación de sincronización de
movimientos de un par de robots AIBO y se realizaron experimentaciones que muestran la bondad
del trabajo desarrollado.
1.
Introducción
Ocho años después de la retirada del mercado de la mascota robótica por excelencia, el robot AIBO, de la compañı́a
japonesa Sony [Decuir et al., 2004; Arevalillo-Herráez et al.,
2011], éstos permanecen encerrados en los armarios de muchos equipos de investigación, a pesar que en su dı́a le sacaron un gran provecho tecnológico. Desde el Departamento
de Automática de la Universitat Politècnica de Catalunya se
ha lanzado una iniciativa global que tiene como objeto la recuperación de esta plataforma robótica para su uso en investigación y docencia. Mediante el uso de una comunicación
inalámbrica, se facilitará el procesado de la carga de trabajo
con mayores requerimientos en un procesador externo, mientras se continuan haciendo uso de las funcionalidades que hicieron de AIBO el producto robótico más sofisticado puesto
en el mercado.
∗
Este trabajo ha sido financiado parcialmente por los proyectos
de investigación PATRICIA (TIN2012-38416-C03-01) y EVENTS
(DPI2010-18601), ambos financiados por el Ministerio de Economı́a
y Competitividad del Gobierno de España.
El objetivo del presente estudio es realizar un demostrador
del sistema en una tarea de sincronización de dos robots AIBO. Para llegar a esta meta es necesario ser capaz de adquirir
los datos de las articulaciones y demás sensores de uno de
los robots a la mayor velocidad posible, ası́ como enviar los
valores de control de las articulaciones al segundo AIBO. Para ello se han probado y analizado un conjunto de posibles
lenguajes de programación / comunicación que permiten la
intercomunicación del robot AIBO con ROS.
Con este fin, se han implementado una serie de experimentos que permitirán decidir qué método de adquisición de datos es más efectivo. La comparativa se ha basado en criterios
como
la frecuencia media de lectura, x̄
los intervalos de congelación en la lectura,
la frecuencia máxima de envı́o,
la capacidad de transmisión, y
el retraso en el seguimiento de trayectorias.
Estos experimentos se han estructurado sobre un paradigma cliente servidor. En el que el cliente es el PC que contiene
ROS y el servidor de datos es la plataforma AIBO.
AIBO soporta varios métodos para la extracción de datos
hacia el PC. De entre ellos se ha elegido utilizar URBI [Baillie, 2005] y conexión directa utilizando telnet. Esta elección
está fundamentada en la facilidad que presentan estos dos sistemas frente a métodos más complejos de comunicación.
Los métodos comparados en los experimentos han sido:
Cliente implementado en C++ usando la librerı́a liburbi.
Dos clientes implementados en C++ usando la librerı́a
liburbi, una para la escritura y otro para la lectura.
Comunicación usando telnet sobre un script de python.
Finalmente se ha optado por trabajar con URBI debido a
que permite una comunicación sencilla entre el servidor, el
AIBO, y un cliente externo.
Una vez alcanzado el anterior propósito y en aras de poner
de manifiesto los resultados de los experimentos precedentes
se realizaron algunos ejemplos de sincronización:
Imitación de un robot AIBO a otro: esta aplicación requiere de una gran fluidez en el trafico de datos, convirtiéndose ası́ en un excelente indicador del grado de
capacidad de sincronización que es posible adquirir.
86
Coordinación de movimientos para una tarea: este caso aportará una visión más útil de la sincronización de
robots para realizar tareas.
Con el objetivo último de conseguir una comunicación entre robots AIBO de forma intuitiva a la vez que proporcionar una serie de herramientas muy útiles en los entornos de
robótica móvil actuales, se usará ROS (Robot Opetating System) [Quigley et al., 2009] como capa intermedia de la programación. Esta extensión facilitará la implementación de las
aplicaciones anteriormente descritas, ası́ como hacer uso de
todas las librerı́as ya existentes en este entorno estándar de
programación.
Por último, indicar que el trabajo aquı́ iniciado permite
una rápida extensión hacia esquemas de robótica en la nube (cloud robotics) y de computación en red que son del todo
interesantes de explorar.
2. El robot AIBO
La plataforma de estudio AIBO ha permitido la realización de numerosos proyectos de investigación, de ı́ndole muy
diversa. Mayoritariamente se han llevado a cabo proyectos
relacionados con visión artificial [Pérez et al., 2010] y comportamientos en inteligencia artificial [Téllez et al., 2006]. Un
punto esencial en el desarrollo del robot AIBO fue que durante el perı́odo comprendido entre 1999 y 2008 fue la plataforma elegida para realizar la competición RoboCup Standard
Plataform League, posteriormente sustituido por la plataforma NAO de Aldebaran. También en la prueba de simulacros
de rescate, AIBO tuvo una gran acogida [Nardi and Lima,
2012]. La RoboCup fue fuente de inspiración para múltiples
investigaciones que se pueden clasificar en tres grupos según
su finalidad:
Visión y reconocimiento de marcas para la posterior ubicación dentro del campo [Morales-Jiménez, 2007].
Comunicaciones y control
[Martı́nez Gómez, 2006].
de
los
movimientos
Definición de roles dentro del campo [Montero-Mora et
al., 2009].
Actualmente el robot AIBO ha caı́do en desuso, en parte
por dejar de ser plataforma de la RoboCup y en parte porque
dejó de ser mantenido por parte del fabricante. Las nuevas actualizaciones de los softwares que lo soportaban han dejado
de ser compatibles, incluso aquellos que nacieron especialmente para el AIBO. Ası́ es el caso de URBI, que desde la
version 1.5, su librerı́a liburbi no es compatible. Igualmente
gran parte de la documentación de estos lenguajes ya no se
encuentra en la red.
Han existido intentos de recuperar la plataforma AIBO, como es el caso de un proyecto que trataba de hacer compatible la version 2.3 de liburbi para AIBO [Kecsap, 2010]. Otro
proyecto trataba de realizar la integración mediante EusLisp
a ROS de varias plataformas, entre ellas AIBO. Sin embargo
es muy escasa o ninguna la documentación referente a ello
[Kertész, 2013].
3.
Comparación de alternativas para la
programación
Con la finalidad de implantar ROS en AIBO se plantea una
primera elección del camino a seguir: (1) un núcleo de ROS
embebido, es decir que sea en el propio AIBO donde se ejecute el proceso, (2) un núcleo de ROS en un ordenador remoto
y comunicación entre ambos mediante una arquitectura cliente/servidor.
Para explorar la opción de un sistema embebido se ha buscado un punto de acceso al hardware con la intención de instalar una distribución linux. Sin embargo el único punto de
acceso encontrado no respondı́a a ningún estándar, por lo que
se desiste su utilización. Ası́, sólo es posible usar una arquitectura cliente/servidor con el módulo de ROS ejecutándose
en el cliente y adquiriendo de forma sencilla y rápida el estado del AIBO y actuando sobre él.
Pese a que existen diferentes posibilidades de programación (OPEN-R, Tekkotsu, URBI), éste último tiene la ventaja
de que no serı́a necesario desarrollar el servidor ya que el sistema operativo interactúa de forma remota. Además, el uso de
URBI es relativamente sencillo, tanto desde el terminal como
con el uso de la librerı́a de C++. También existe bastante documentación. El único problema que se ha detectado es que
la librerı́a liburbi 1.5, la más reciente que es compatible con
AIBO, no es compatible con un sistema linux de 64 bits.
Una vez escogido URBI como lenguaje de desarrollo, se
plantean dos opciones:
Usar liburbi con C++.
Usar un script de python que use la terminal de URBI
bajo una conexión telnet.
Para determinar la opción a elegir se realizaron una serie de
experimentos comparativos sobre la eficacia de las comunicaciones de ambos métodos. Los experimentos se realizaron en
ambas direcciones de la comunicación, por un lado la lectura
y por otro el envı́o.
3.1.
Lectura de datos
De los datos obtenidos de las 15 réplicas experimentales
de cada uno de los dos métodos probados se han obtenido
las diferencias de tiempos entre un dato y el siguiente y se
traduce a frecuencia calculando el inverso.
Los resultados mostraron claramente que con el uso de
liburbi se alcanzan frecuencias medias más altas (x̄ =
13,611Hz y σ = 13,271 para liburbi y x̄ = 3,000Hz y
σ = 2,763 para python) en la mayorı́a de réplicas. Además,
la mayorı́a de datos se envı́an más rápidos como se refleja en
los valores de las medianas de liburbi que son mayores que
los valores del tercer cuartil del metodo python. Por otro lado, los valores mı́nimos de cada método son muy similares y
la variabilidad de los resultados de liburbi es mayor.
Tan importante como los valores medios de las frecuencias
es comprobar si se producen bloqueos en la comunicación, es
decir si durante un cierto perı́odo de tiempo no se actualiza la
variable. Para verificar si se producen bloqueos es necesario
atender a los valores mı́nimos de las series. Aparentemente
liburbi presenta unos valores mı́nimos más bajos, sin embargo
el análisis de la varianza (ANOVA) de los mı́nimos indica que
87
no se corresponden con poblaciones distintas, por lo que se
acepta la hipótesis nula (p valor = 0,4 y I.C. = 95 %).
3.2.
Envı́o de datos
El segundo experimento consiste en enviar una trayectoria
sinusoidal punto a punto a una articulación y comprobar la
respuesta. Para capturar los resultados se leerá la respuesta de
la articulación usando los módulos de lectura del experimento
anterior.
En este experimento se ha contado con 3 posibles opciones
de programación. Esto es ası́ debido a que la terminal de URBI usando un cliente telnet con python no permite la lectura
y escritura simultánea, y en consecuencia se han tenido que
desarrollar dos clientes telnet. Aunque si bien liburbi permite
la lectura y escritura por un solo cliente, se ha considerado
oportuno añadir un programa con dos clientes, equivalente al
método utilizado con python.
En sı́ntesis, los programas que se van a utilizar son los siguientes:
Python con un cliente telnet para lectura y otro para escritura.
C++ con un cliente URBI tanto para lectura como para
escritura.
C++ con un cliente URBI para lectura y otro para escritura.
El experimento se ha repetido cambiando la frecuencia a la
que se envı́an los puntos de la trayectoria. Los valores de las
frecuencias utilizados son: 1, 2, 5 y 10 Hz. Se han omitido
mayores velocidades ya que el movimiento a una frecuencia
de mas de 10 Hz era inconstante y discontinuo. Con la finalidad de obtener una mayor fiabilidad en los resultados se han
realizado 3 réplicas por métodos y frecuencia. Se han descartado los experimentos en los que se ha producido un bloqueo.
De los resultados obtenidos se pueden distinguir dos tipos
de errores que provocan que la trayectoria realizada no sea la
correcta:
La articulación no se mueve.
No se recibe la posición actual. En este caso no se puede
saber si la articulación se ha movido1 .
Se puede concluir que el seguimiento de la trayectoria es
independiente de la frecuencia utilizada en este rango. Por
otro lado también se observa que con un solo cliente liburbi
se producen grandes bloqueos en la recepción y muestra una
trayectoria más discontinua e inconstante. En lo que respecta
a los otros dos métodos, dos clientes con liburbi y python,
tienen un comportamiento aceptable y no se puede concluir
que uno sea mejor que otro.
Para discernir cual de los dos métodos es más eficiente se
han analizado las diferencias de tiempo entre el momento en
que se envı́a la orden de los picos de la sinusoide y el momento en que se recibe que ha llegado a dicha posición. Para comprobar si existe diferencia entre las series se realiza
una ANOVA sobre los datos. Con un intervalo de confianza
del 95 % el p-valor es de 2,1e-7, por lo tanto no se acepta la
1
Por inspección visual se ha comprobado que ambos errores son
independientes.
hipótesis nula y se puede concluir que el retraso con C++ es
significativamente menor.
En sı́ntesis, el método liburbi se ha demostrado más eficaz
en lo relativo a la recepción de datos, muestra un comportamiento similar a python en el seguimiento de las trayectorias
con el uso de dos clientes y además se obtiene un retraso de
seguimiento menor que python estadı́sticamente significativo. Adicionalmente, se ha de tener en consideración que el
paquete será más complejo que los programas utilizados en
los experimentos y dado que C++ se ejecuta a mayor velocidad que python las diferencias de ejecución podrı́an llegar
a ser crı́ticas. En consecuencia la librerı́a liburbi usando dos
clientes es el método elegido para implementar el paquete de
ROS.
4.
Implementación en ROS
ROS es el acrónimo de Robot Operating System, que lejos
de ser un sistema operativo es más bien un marco de trabajo que proporciona unas herramientas y unas librerı́as para
ayudar a desarrollar software para aplicaciones de robótica.
Proporciona entre otras facilidades abstracciones de hardware, controladores para dispositivos, herramientas de visualización, comunicación por mensajes, administración de paquetes
y todo ello bajo licencia de software libre. La principal caracterı́stica sobre ROS es su sistema de comunicación. A bajo nivel está basado en el pase de mensajes que pueden ser leı́dos
por diversos procesos simultáneamente. Dichos mensajes se
escriben sobre unos canales de comunicación llamados topics
a los que se puede acceder mediante métodos de publicación
y subscripción. Sobre los tópicos se puede publicar o subscribir desde un terminal o bien cualquier objeto de ROS, denominados nodes. Todos los programas que se ejecutan sobre
ROS deben ser creados dentro de un paquete (package).
4.1.
Paquete aibo server
Se pretende implementar un paquete que se conecte al robot AIBO dentro de una red local. Una vez conectado debe
recoger los datos enviados por el servidor URBI del robot y
publicarlos sobre una serie de tópicos. De forma inversa debe
tratar los valores de las articulaciones del tópico al que está
subscrito y enviarlos al servidor con el fin de actuar sobre la
plataforma (ver Figura 1).
La implementación del paquete de ROS se realiza usando
liburbi y dos clientes, uno para la recepción y otro para el
envı́o. La estructura del programa implementado se puede ver
en la Figura 2.
Por lo que respecta la adquisición de los valores de sensores y articulaciones, se han conseguido obtener trabajando a
una frecuencia de 10Hz. Con objeto de verificar que el refresco de los tópicos es correcto se ha accedido a mostrar por el
terminal todos ellos junto con su frecuencia de refresco.
Para realizar una valoración del envı́o de las posiciones se
necesita de un paquete de ROS que permita cuantificar los
resultados. El test aplicado es similar al realizado en las experimentaciones de la Sección 3. Se trata de enviar punto a
punto una trayectoria sinusoidal a las posiciones de una articulación. Para la realización del test se ha implementado un
sencillo programa que crea un nodo que publica sobre el tópi-
88
Figura 3: Estructura de ROS con los nodos aibo server y SinLeg.
Figura 1: Nodo aibo server.
Figura 4: Entrada y respuesta del sistema ante una señal sinusoidal enviando puntos a 10Hz.
Figura 2: Estructura básica del ejecutable aibo server.
co /aibo server/aibo/subjoints/jointRF1. La
estructura entre los nodos se muestra en la Figura 3.
De los resultados obtenidos en la realización de varias
réplicas a diversas frecuencias se deduce que el seguimiento de la trayectoria lleva un retraso mı́nimo entorno a los 0.5
segundos, dato que coincide con el retraso medio obtenido en
las experimentaciones de la subsección 3.2.
Por otro lado el modulo implantado no ha mejorado los
resultados obtenidos en la subsección 3.2 en lo relativo a los
bloqueos (Figura 4). Por lo tanto, cabe concluir que el módulo
no proporciona las condiciones necesarias para aquellas aplicaciones en las que se requiere una lectura y una respuesta
rápida del sistema.
4.2.
Paquete aibo description
Este paquete pretende ser el vı́nculo entre el robot AIBO y
una de las herramientas más usadas de ROS para robots móvi-
les, rviz2 , un visualizador 3D para aplicaciones de robótica
que permite visualizar un modelo, el entorno sensado o un
mapa virtual. El paquete consta de dos partes diferenciadas,
la creación del modelo de AIBO para su representación en
imagen 3D y la implementación de un nodo que sincronice el
modelo con el robot.
Para generar un modelo, se debe editar un fichero xml con
formato URDF3 (Unified Robots Description Format) donde se especifican las dimensiones del robot, las articulaciones y sus movimientos, la geometrı́a de las extremidades y
parámetros fı́sicos como la masa o la inercia. Para el modelo
de AIBO se han creado 22 partes y 21 articulaciones. Se han
descartado en el modelo la boca y las orejas.
En cada una de las partes se debe definir la geometrı́a y
sus dimensiones. Con el fin de darle un aspecto visual más
atractivo y mas semejante al robot AIBO real la geometrı́a ha
sido definida mediante archivos stl que contienen las figuras
de cada una de las partes. A partir de un modelo sólido se han
dividido y modificado algunas piezas usando los softwares de
apoyo FreeCAD4 y Netfabb5 . El resultado desde la ventana
de rviz se muestra en la Figura 5.
El nodo state publisher está creado mediante un programa
escrito en C++ (state publisher.cpp) y está subscrito al tópico
/aibo server/aibo/joints, donde se encuentran las
posiciones de las articulaciones del robot real, y las publica
en un tópico llamado joint states al que accede rviz.
Además envı́a la transformada del modelo cinemático.
En la Figura 6 se puede observar cómo queda la estructura
de los nodos con el visualizador rviz y el nodo aibo server en
funcionamiento.
2
http://wiki.ros.org/rviz
http://wiki.ros.org/urdf
http://freecadweb.org/
5
http://www.netfabb.com/
3
4
89
Figura 6: Estructuras de los nodos de ROS con aibo server y el modelo visualizado con rviz.
Referencias
Figura 5: Modelo visto desde el framework de rviz.
5. Conclusiones y Trabajos Futuros
Como resultado del trabajo realizado, puede afirmarse que se ha alcanzado el objetivo de implementar
los paquetes aibo server y aibo description que permiten la sincronización de varios robots AIBO. Estos paquetes están disponibles para su uso o modificación en
https://github.com/Diamg/AiboRosPackages, con objeto de
poder complementarlos y mejorar los resultados.
El módulo implementado permite adquirir los datos de los
sensores y articulaciones de AIBO de forma satisfactoria a
velocidades superiores a 10 Hz en forma de tópicos de ROS.
Esta parte del módulo por si solo ya facilita enormemente
la programación, el testeo y la depuración con el uso de las
herramientas que facilita ROS. Además, en esta lı́nea se ha
incluido un modelo para el visualizador rviz con un aspecto
visual y funcional complementando el módulo anterior.
Por otro lado, la parte implementada que se encarga de enviar las ordenes a AIBO permitiendo actuar sobre él, no ha
dado unos resultados tan veloces como serı́a deseable y no
permite el envı́o de trayectorias punto a punto con este método. De todos modos, URBI dispone de su propio generador
de trayectorias por lo que permite enviar funciones de movimiento más complejas o posiciones concretas enviadas a un
ritmo mas bajo del implementado.
Este proyecto deja un camino abierto a posibles mejoras y
complementos. Entre otros, la integración del modulo de visión y audio usando URBI. Por otra parte, cabe la duda de si
el comportamiento de envı́o serı́a mejor usando OPEN-R, lo
que implica eliminar una capa de programación intermedia,
URBI, que posiblemente está ralentizando y empeorando la
comunicación entre cliente y servidor. En cuanto al modelo y
el nodo que permite su integración con rviz podrı́a completarse añadiendo otros sensores del AIBO como los acelerómetros, los infrarrojos, los sensores de presión y contacto, permitiendo, entre otros, realizar proyectos de odometrı́a.
[Arevalillo-Herráez et al., 2011] Miguel Arevalillo-Herráez,
Salvador Moreno-Picot, and Vicente Cavero Millán. Arquitectura para utilizar robots AIBO en la enseñanza de la
inteligencia artificial. IEEE-RITA, 6(1):1–9, 2011.
[Baillie, 2005] Jean-C. Baillie. URBI: Towards a universal
robotic low-level programming language. In Intelligent
Robots and Systems, 2005. (IROS 2005). 2005 IEEE/RSJ
International Conference on, pages 820–825, Aug 2005.
[Decuir et al., 2004] John D. Decuir, Todd Kozuki, Victor
Matsuda, and Jon Piazza. A friendly face in robotics:
Sony’s aibo entertainment robot as an educational tool.
Computers in Entertainment, 2(2):14, 2004.
[Kecsap, 2010] Kecsap.
Porting URBI 2.x for AIBO.
biburlhttp://kecsapblog.blogspot.com.es/2010/12/portingurbi-2x-for-aibo.html, 2010.
[Kertész, 2013] Csaba Kertész. Improvements in the native development environment for sony AIBO. IJIMAI,
2(3):50–54, 2013.
[Martı́nez Gómez, 2006] Jesús Martı́nez Gómez. Diseño de
un teleoperador con detección de colisiones para robots
AIBO. Master’s thesis, Universidad de Castilla-La Mancha, Spain, 2006.
[Montero-Mora et al., 2009] Ángel Montero-Mora, Gustavo
Méndez-Muñoz, and José-Ramón Domı́nguez-Rodrı́guez.
Metodologı́as de diseño de comportamientos para AIBO
ERS7. Master’s thesis, Universidad Complutense de Madrid, Spain, 2009.
[Morales-Jiménez, 2007] Jesús Morales-Jiménez. Localización de objetos y posicionamiento en el escenario deRoboCup Four-Legged con un robot AIBO. Master’s thesis,
Universidad de Castilla-La Mancha, Spain, 2007.
[Nardi and Lima, 2012] Daniele Nardi and Pedro Lima. RoboCup: the robot soccer world cup. In Pedro Lima and Rui
Cortesao, editors, Proceedings of the IROS-13 Workshop
on Robot Competitions: Benchmarking, Technology Transfer and Education. IEEE, 2012.
[Pérez et al., 2010] Xavier Pérez, Cecilio Angulo, Sergio Escalera, and Diego E. Pardo. Vision-based navigation and
reinforcement learning path finding for social robots. In
Jornadas ARCA 2010, June 2010.
[Quigley et al., 2009] Morgan Quigley, Ken Conley, Brian P.
Gerkey, Josh Faust, Tully Foote, Jeremy Leibs, Rob Wheeler, and Andrew Y. Ng. ROS: An open-source robot operating system. In ICRA Workshop on Open Source Software,
2009.
[Téllez et al., 2006] Ricardo A. Téllez, Cecilio Angulo, and
Diego E. Pardo. Evolving the walking behaviour of a 12
90
dof quadruped using a distributed neural architecture. In
AukeJan Ijspeert, Toshimitsu Masuzawa, and Shinji Kusumoto, editors, Biologically Inspired Approaches to Advanced Information Technology, volume 3853 of Lecture
Notes in Computer Science, pages 5–19. Springer Berlin
Heidelberg, 2006.
91
Ideas para la aplicación de la optimización por colonia de hormigas al desarrollo
sostenible y eficiencia energética
J. M. Marquez Vázquez1 , J. A. Ortega Ramírez2, L. González-Abril3 y F. Velasco Morente3
1
División de Aplicaciones de Negocio. Simosa IT. Abengoa. jose.marquez@abengoa.com
2
Dep. de Lenguajes y Sistemas Informáticos, Univ. de Sevilla, jortega@us.es
3
Dep. de Economía Aplicada, Univ. de Sevilla. {luisgon,velasco}@us.es
Abstract
El objetivo de este artículo es presentar un nuevo
contexto para la aplicación del algoritmo optimización por colonias de hormigas. Concretamente, el
contexto que se define este trabajo es el resultante
de la implantación de un sistema de medición continua de la concentración de partículas contaminantes en el aire en grandes ciudades, mediante la utilización de una red de sensores instalados en los autobuses de la red de transporte público. El algoritmo de optimización por colonias de hormigas se
utiliza para obtener el camino óptimo de ida y vuelta y con menor concentración de polen entre dos
puntos de la ciudad. El sistema descrito en este trabajo no está relacionado con ningún proyecto real y
su propósito es únicamente mostrar una de sus posibles aplicaciones desde un punto de vista teórico.
1
Introducción
Una de las peculiaridades del algoritmo presentado en la tesis “Cálculo de rutas en sistemas de e-learning
utilizando un algoritmo de optimización por colonias de
hormigas” [1] consiste en que el rol de hormiga es desempeñado por personas reales, a diferencia de lo que sucede en
el resto de algoritmos de optimización por colonia de hormigas [2], dónde son agentes software los que sin mediar
intervención humana, desempeñan este papel. En [1] a partir
del comportamiento de los alumnos y de su perfil el algoritmo calcula el itinerario de aprendizaje que, a priori, resultaría más beneficioso. En este trabajo aprovechamos la
misma para un propósito totalmente diferente: utilizar el
comportamiento de las personas para obtener información
acerca de la contaminación ambiental y procesarlos para
ofrecer mapas de contaminación de una ciudad.
Un antecedente de esta aplicación del uso de pequeños sensores implantados en autobuses urbanos para la monitorización de parámetros ambientales lo encontramos en el proyecto EkoBus, llevado a cabo en las ciudades de Belgrado y
Pancevo en Serbia con la colaboración de Ericsson y dentro
del marco de proyectos SmartSantander financiado por el
Banco Santander.
2
Contexto
Las cuestiones ambientales y las restricciones
energéticas son uno de los pilares fundamentales sobre los
que se apoya la idea de ciudad inteligente [3]. En una ciudad
inteligente, la captura de datos que ayude a la toma de medidas orientadas a la reducción de la contaminación (del
aire, acústica, etc.) es una de sus razones de ser.
Algunas iniciativas para la medición de la contaminación ya han sido reconocidas y premiadas a nivel mundial. Algunas son españolas, como el sensor SmartCitizen1,
un sensor construido sobre la placa Arduino2 y que permite
a cualquier ciudadano medir los niveles de contaminación y
de ruido en su entorno y, en presencia de una red wifi, compartir la información en tiempo real en la red.
Recientemente, han sido numerosos los proyectos
relacionados con la adquisición de datos medioambientales
en ciudades inteligentes [4][5][6][7][8], animados en gran
medida por la capacidad de placas de bajo coste y fácil programación como ya la mencionada Arduino, Raspberry Pi3
o los sensores Waspmote4.
La aplicación inmediata es la construcción de un
mapa de contaminación ambiental, utilizando la variable
tiempo para detectar patrones de contaminación periódicos
debidos a la actividad humana, como el tráfico o la actividad
industrial. El estudio de este mapa de contaminación facilitará la toma de decisiones encaminadas a la minimización de
la contaminación por la actividad humana, contribuyendo a
la construcción de una ciudad más saludable.
1
2
3
4
http://www.smartcitizen.me/
http://www.arduino.cc/
http://www.raspberrypi.org/
http://www.libelium.com/es/products/waspmote/
92
La solución que se describe en este trabajo está
pensada para ciudades de tamaño medio-grande que cuenten
con red de transporte urbano (autobuses o taxis) en superficie y zonas de que actúen como fuentes y sumideros de
tráfico en determinadas franjas horarias (campus universitarios, polígonos industriales, puerto, etc.).
Actualmente, en una ciudad como Sevilla, se utilizan siete cabinas de vigilancia de la calidad del aire como
las de la Figura 1 repartidas por la ciudad según la distribución de la Figura 2.
Tabla 1: Valor de referencia (100) para cada contaminante
Contaminante
Concentración en
µg/m3 asociada al
valor del índice 100
Observaciones
SO2
125
Valor medio en
24 horas
NO2
200
Valor medio en
1 hora
PM10
50
Valor medido
en 24 horas
CO
10000
Valor medido
en 8 horas
O3(3)
120
Valor medio en
8 horas
Tabla 2: Valores cualitativos para la calidad del aire
Figura 1: Cabina de vigilancia de la calidad del aire
situada en el Parque de los Príncipes (Sevilla).
Todas estas cabinas permiten obtener muestras de los siguientes contaminantes:
- Partículas en suspensión de tamaño inferior a 10
micras (PM10).
- Dióxido de azufre (SO2)
- Monóxido de Carbono (CO)
- Óxidos de Nitrógeno (NO y NO2)
- Ozono (O3)
Los valores cualitativos, entendibles por la población, para
el nivel de calidad del aire: Buena, Admisible, Mala y Muy
Mala, se deciden en función de un índice de referencia
(Tabla 2) regulado por el Real Decreto 102/2011 [9] (Tabla
1).
Valor
Calidad del aire
0-50
Buena
51-100
Admisible
101-150
Mala
>150
Muy mala
Como se puede observar en la Figura 3, el nivel de contaminantes detectado por una misma cabina de vigilancia varía
según la franja horaria, por lo que la calidad del aire también
puede variar en términos cualitativos.
93
El monóxido de carbono (CO) es un gas poco común en la
atmósfera natural. Se forma como consecuencia de combustiones incompletas, Se produce por la combustión deficiente
de sustancias como gas, gasolina, keroseno, carbón, petróleo, tabaco o madera. Las chimeneas, las calderas, los calentadores de agua o calefactores y los aparatos domésticos que
queman combustible, como las estufas de la cocina o los
calentadores a queroseno, también pueden producirlo si no
están funcionando bien. Los vehículos detenidos con el
motor encendido también lo despiden. Es altamente tóxico,
mucho más letal que el dióxido de carbono. Observando las
muestras tomadas de cualquier día en cualquier cabina de
vigilancia es fácil detectar los picos de emisión de este gas y
relacionarlo con la actividad humana: las mayores concentraciones se producen de 7:30h a 14:00h y en menor medida,
por la tarde de 16:00h a 20:00h.
Por tanto, el estudio de estas muestras y el análisis de causas
relacionadas con la actividad humana, puede ayudar a tomar
medidas sobre dicha actividad que repercutan en una mejora
de la calidad del aire y por consiguiente, un mapa de calidad
del aire más detallado permitirá ajustar estas medidas con
más precisión en cada zona de la ciudad.
Figura 2: Red de vigilancia ambiental de Sevilla. Ubicación de las cabinas de vigilancia de la calidad del aire.
Informes recientes [13], indican que el 95% de los españoles
respira aire contaminado, por encima de los niveles máximos recomendados por la Organización Mundial de la Salud
(OMS). La creación de mapas detallados por niveles de
contaminantes (concentración de partículas, por ejemplo)
permitiría realizar un seguimiento de la evolución de los
mismos por la zonas o aglomeraciones de la ciudad y comprobar con mayor exactitud si los ciudadanos están expuestos a niveles superiores a los establecidos por las diferentes
normativas regulatorias. Por ejemplo, permitiría comprobar
la evolución y dirección de una intrusión de polvo sahariano
o de una nube de cenizas proveniente de la erupción de un
volcán. Estos mapas podrían ser de gran utilidad tanto para
el desarrollo sostenible, en cuanto a la reducción de emisiones contaminantes, como para la salud de los ciudadanos
puesto que facilitarían el estudio comparativo con mapas de
enfermedades y la correlación con ciertos niveles de contaminación para la aparición de enfermedades el aparato respiratorio o incluso la incidencia en determinados tipos de
cáncer [14].
3
Figura 3: Variación de valores de contaminantes del aire
registrados en la cabina del Parque de los Príncipes5
desde las 0h a las 23:59h del (18/06/2014).
5
Informe diario de calidad del aire ambiente. Red de vigilancia
y control de calidad del aire de Andalucía. Consejería de Medio
Ambiente. Junta de Andalucía.
Descripción de la solución
La solución consiste en una red de sensores acoplados en el
techo de algunos autobuses de la red de transporte urbano, lo
que permite cubrir casi gran parte de la ciudad con un reducido número de sensores.
94
En aquellas zonas dónde las líneas de transporte urbano sean
escasas o inexistentes, se colocarían sensores fijos en el
mobiliario urbano, de forma que no fueran fácilmente accesibles para evitar que fueran robados o víctimas de actos
vandálicos.
Los sensores cuentan con sistema de posicionamiento que
permitirá asociar a cada muestra las coordenadas GPS dónde
fue tomada. Cada sensor recogerá una muestra periódicamente y la enviará por GPRS al servidor central, que la
almacenará y asociará al sector correspondiente de la ciudad
a partir de las coordenadas recibidas. En este sentido, la
ciudad debe ser dividida en sectores (una cuadrícula) y el
tamaño de cada sector, puede escogerse según la precisión
deseada. A menor tamaño de los sectores, mayor precisión
tendrá del mapa de contaminación resultante, pero será necesario tomar un mayor número de muestras. Utilizando la
misma división que la empleada en los mapas de la empresa
pública de Transportes de Sevilla (Figura 4), resulta una
sectorización de la ciudad compuesta por 90 sectores de
igual dimensión, lo que aportará una información más detallada que la actual división en 6 sectores (Figura 2).
nimiento de la solución optando por su instalación en autobuses.
El sensor elegido es el modelo Smart Enviroment de Libelium, dotado de panel solar para dotarle de autonomía. La
batería de 6600 mAh combinado con el modo de funcionamiento del sensor, que se mantiene en stand-by mientras no
tenga que obtener muestra, hace que la autonomía de cada
sensor sea suficiente para operar durante semanas de poca
luz (invierno). Cada sensor puede operar con las diferentes
redes6 de comunicación que proporcionan los operadores de
telefonía actuales y es capaz de obtener las coordenadas
GPS desde la que se toma la muestra.
Hay que tener en cuenta el coste de cada línea asociada a
cada sensor en los costes de operación, siendo recomendable
escoger la tarifa de datos más económica puesto que el propósito a que se destinarán no generará un gran tráfico de
datos.
La ubicación de los sensores tendría lugar en el techo de los
autobuses, como se realizó en el ya citado proyecto EkoBus.
La toma se realizará transcurrido un intervalo de tiempo
determinado y aprovechando siempre que el vehículo esté
parado, para que la velocidad de marcha no influya en el
valor obtenido de la muestra. Será necesario, transcurrido el
intervalo de tiempo que fija el mínimo tiempo entre dos
tomas, detectar la velocidad instantánea del vehículo para
comprobar que está parado. La velocidad puede ser calculada a partir de la información del GPS, a partir de la variación de la posición respecto al tiempo, del desplazamiento
Doppler de las frecuencias de transmisión de los satélites, o
bien combinando ambos métodos [11].
Una vez recogida la muestra y encapsulada en un mensaje
XML sería enviada vía HTTPS al servidor central encargado
de almacenarla en la base de datos para su posterior procesado.
En el servidor central, una función calculará el sector a partir de las coordenadas GPS recibidas con cada muestra, de
forma que cada muestra quede asociada a un sector de la
ciudad.
Figura 4: División de Sevilla en 90 sectores
Si observamos la división por sectores de la ciudad notamos
que, de los 90 sectores, 23 no cuentan con ninguna línea de
autobús, por lo que nunca recogerían muestra. También se
observa que esos sectores no cuentan núcleos de población,
por lo que tampoco son de interés puesto que se pretende
medir la calidad del aire en núcleos urbanos. Por tanto en
total, contamos con un área de muestreo compuesta por 67
sectores. Si colocásemos un sensor fijo en cada sector, necesitaríamos 67 sensores. Colocando un sensor en un autobús
de cada línea necesitaremos sólo 43 sensores, con lo que
reducimos los costes de implantación, operación y mante-
De esta forma una red de 43 sensores, podría mantener un
mapa de contaminación del aire actualizado casi en tiempo
rea con un coste de implantación, operación y mantenimiento realmente bajo para una ciudad como Sevilla.
4 Aplicaciones de la optimización por Colonia
de Hormigas
6
GSM/GPRS/3G/UMTS/WCDMA/HSPA
95
El algoritmo de optimización por colonia de hormigas (Ant
Colony Optimization, ACO) es una técnica probabilística
para solucionar problemas computacionales que pueden
reducirse a buscar los mejores caminos o rutas en grafos que
fue propuesto por Marco Dorigo en su tesis doctoral [2]. Se
basa en la imitación del comportamiento de las hormigas,
que van dejando un rastro de feromonas por los caminos que
van explorando que ayudan al resto de hormigas de la colonia a elegir, con mayor probabilidad, el camino con mayor
cantidad de feromonas. La evaporación progresiva del rastro
de feromonas depositado por cada hormiga junto con unas
deposiciones, condicionadas en cantidad en función del
éxito obtenido (haber encontrado comida o no por ese camino), de nuevas hormigas hacen que el camino con un
nivel de feromonas mayor acabe siendo el seguido por toda
la colonia.
Los algoritmos de optimización por colonias de hormigas
son aplicados en muchos problemas combinatorios. Muchos
métodos derivados han sido adaptados a problemas dinámicos en variables reales, problemas estocásticos, programación paralela y multi-objetivo. Incluso han sido usados para
producir soluciones bastante cercanas a las soluciones óptimas del problema del viajante. ACO tiene una ventaja clara
sobre otro enfoques como el recocido simulado (simulated
annealing) y los algoritmos genéticos en problemas similares cuando el grafo puede cambiar su estructura de manera
dinámica: el algoritmo de colonia de hormigas puede seguir
corriendo continuamente y adaptar los cambios en tiempo
real. Esto es de interés en los campos de enrutamiento de
redes y en los sistemas de transportes urbanos, como en este
caso, dónde una avería o accidente puede ocasionar un corte
o el cambio de sentido de una calle.
-
Después de cada iteración, se evaporan las feromonas de acuerdo a una tasa de evaporación predefinida.
Camino con menor concentración de partículas
Una posible aplicación en de ACO a la solución descrita
anteriormente para monitorización de la calidad del aire,
consistiría en averiguar el camino de menor concentración
de partículas en el aire entre dos sectores diferentes de la
ciudad. Por ejemplo, sería de utilidad para aquellos peatones
que sufren de alergia a determinados tipos de polen, que
podrían elegir el camino de ida y vuelta con menor concentración de partículas, que normalmente será el de menor
concentración de polen.
El polen de las gramíneas y en es especial el polen del olivo
es particularmente en el sur de España, uno de los aeroalergenos más importantes, siendo la principal causa de polinosis que llega a afectar en la provincia de Jaén hasta al 84%
de la población7.
Los primeros registros polínicos comienzan a detectarse
durante el mes de marzo, alcanzándose las concentraciones
más elevadas en la primera y segunda semana de mayo
normalmente. Hasta bien entrado el mes de junio se mantienen valores importantes de polen de olivo en el aire que
oscilan entre los 250 g/m3 en Almería y los 1800 g/ m3 de
Jaén.
El primer algoritmo de colonia de hormigas, llamado Ant
System, tenía como objetivo resolver el problema del viajante, que consiste en encontrar el camino hamiltoniano más
corto en un grafo completo. El algoritmo está basado en un
conjunto de hormigas, cada una haciendo una posible ruta
entre las ciudades teniendo en cuenta las siguientes reglas:
-
Debe visitar cada nodo sólo una vez;
-
Una ciudad distante tiene menor posibilidad de ser
elegida (Visibilidad);
-
Cuanto más intenso es el rastro de feromonas de
una arista entre dos ciudades, mayor es la probabilidad de que esa arista sea elegida;
-
Después de haber completado su recorrido, las feromonas depositadas por cada hormiga en todas las
aristas, es inversamente proporcional a la distancia
total de camino;
Figura 5: Niveles (cualitativos) de polen de gramíneas y
olivo a mediados de mayo
En cambio dentro de las ciudades las concentraciones de
pólenes puede variar en función de la mayor o menor proximidad a zonas de cultivos o de la protección que puedan
ofrecer la disposición de los edificios y para esto sería de
interés contar con un mapa de contaminación detallado por
7
Según datos de la Red de Aerobiología de Andalucía, obtenidos
por la Estación de Control Aerobiológico de Granada.
http://www.ugr.es/~aerobio/olivo.htm
96
sectores sobre el que poder aplicar ACO para seleccionar el
camino de menor concentración de polen para un peatón
alérgico (no sería posible elegir el tipo de polen).
En este caso, los nodos representarían sectores de la ciudad.
Dos sectores estarán conectados por tantos caminos como
existan en el callejero que lo comuniquen, siendo la distancia de cada camino la distancia a recorrer por él. Este dato
puede obtenerse de sistemas de información geográficas o
callejeros como Google Maps8 que ofrecen un API9 para el
desarrollo e integración de aplicaciones de terceros.
entre 100 y 200 metros, tal y como se puede observar en la
gráfica de la
Distancia final
250
200
150
100
50
El valor de concentración de partículas para cada sector
sería el valor medio de todas las muestras tomadas en el
mismo sector durante la última hora.
Pensemos en la solución para el polen del olivo, cuyo tamaño oscila entre las 18 y las 31 micras.
La distancia a considerar entre dos nodos será también un
factor de la contaminación, de forma que se prime en cierta
medida aquellos caminos con mejor calidad del aire.
() = − ()
(1)
En la ecuación anterior () representa la distancia que
el modelo para el sistema ACO asignará al camino entre el
origen x y el destino y a través del itinerario z y que será
función, como veremos tanto de la distancia real entre x e y,
dxy(z), como de la medida de contaminación, en este caso de
partículas (polen), existente en el sector destino, que vendrá
dado por la función Ky que se calcula según la ecuación (2).
La constante k, es la constante o asíntota con la que queremos penalizar el recorrido en caso de una mala calidad del
aire y debe ser siempre k > 1. Por ejemplo, un valor k=2
hará que para valores infinitos de contaminación la distancia
final en el modelo se duplique con respecto a la original.
1
= < 50
≥ 50
(2)
La ecuación (2) hace que se mantenga la distancia cuando el
valor medio de concentración de partículas mayores de 10
micras, coincide o es inferior al valor límite de referencia,
esto es, cuando cy ≤ 50 g/m3. Para concentraciones admisibles, malas o muy malas (cy ≥ 50 g/m3 ) la distancia final en
el modelo se verá incrementada.
0
0
250 500 750 1000 1250 1500 1750 2000
Figura 6: Variación de d'xy(z) para k=2 y dxy(z)=100
según valor de cy
A partir de esta función de distancia y aplicando el algoritmo ACO deseado, por ejemplo el algoritmo Ant System
original de Marco Dorigo [12], podemos obtener una aproximación bastante buena al camino óptimo entendiendo
como óptimo al camino más corto y con una menor concentracón de polen.
La función de distancia en este trabajo definida (1) es bastante básica. Podría utilizarse una función más real, que
modele la cantidad de polen inhalado en función de los
metros recorridos de camino y que sería lo que interesaría
optimizar, pero creemos que como punto de partida, la función distancia definida puede ofrecer buenos resultados.
5 Inconvenientes para la aplicación
Entre los inconvenientes para la aplicación de las características del descrito en este trabajo podemos citar:
El primer inconveniente lo constituye el marco legal. El
propio Real Decreto 102/2011, de 28 de enero, relativo a la
mejora de la calidad del aire, indica en el artículo 6 el Capítulo II, de evaluación de la calidad del aire lo siguiente:
3. La evaluación de la calidad del aire ambiente se realizará, dependiendo del nivel de los contaminantes con respecto
a los umbrales a los que se refiere el anexo II, utilizando
mediciones fijas, técnicas de modelización, campañas de
mediciones representativas, mediciones indicativas o investigaciones, o una combinación de todos o algunos de estos
métodos.
La distancia final () para la arista del grafo en nuestro
modelo que una los puntos x e y a través del itinerario z del
callejero, suponiendo que la longitud real de z es de 100
metros, variará según el valor de contaminación cy con k=2
El punto 3 del artículo 6 hace referencia a mediciones fijas,
pero no a puntos de medición móviles. No obstante podrían
interpretarse nuestro caso como un caso especial de campaña de medición representativa, pero no queda claro.
8
El siguiente punto del artículo 6 sí que indica claramente
que será obligatorio en aquellos puntos en los que se pueda
9
http://maps.google.com
https://developers.google.com/maps/?hl=es
97
superar el límite de referencia efectuar mediciones en lugares fijos:
4. Será obligatorio efectuar mediciones de la calidad del
aire en lugares fijos en las zonas y aglomeraciones donde
los niveles superen los umbrales superiores de evaluación
establecidos en el anexo II. Dichas mediciones fijas podrán
complementarse con modelización o mediciones indicativas
para obtener información adecuada sobre la distribución
espacial de la calidad del aire ambiente.
En este caso las mediciones fijas serían las efectuadas por
las cabinas fijas ya existentes, pero ¿pueden considerarse las
medidas efectuadas por los sensores instalados en los autobuses mediciones indicativas? Creemos que sí, pero no está
del todo claro.
Otro inconveniente en sí es la necesidad de contar con el
apoyo de la administración pública para llevar este proyecto
a una experimentación real.
6 Conclusiones y trabajo futuro
En el presente trabajo se describe como desplegar una red de
sensores móviles que faciliten la captura de datos para la
evaluación de la calidad del aire de cara a la construcción de
un mapa detallado de la calidad del aire en una ciudad, lo
que facilitará la toma de decisiones para actuar sobre aquellos elementos de la actividad humana que influyen en un
empeoramiento de la calidad del aire: tráfico, emisiones de
la industria, control de residuos, etc. Por consiguiente, contribuirá a un desarrollo más sostenible y podrá facilitar el
ahorro energético (control del tráfico, de las emisiones de
CO2 de la industria, etc).
Además se introduce la aplicación del algoritmo de optimización por colonias de hormigas para, a partir del modelo
construido con los datos obtenidos por la red de sensores
descrita, obtener caminos óptimos en los que se optimicen la
distancia recorrida entre dos puntos con la mejor calidad de
aire posible, persiguiendo en este trabajo en particular, el
camino con menor concentración de polen del olivo (partículas mayores de 10 micras).
Este trabajo es una reflexión teórica sobre las posibilidades
de aplicación de ACO en el contexto descrito, quedando
como trabajo futuro la construcción del sistema y el modelo
descrito y realización de un piloto con un conjunto reducido
de sensores y vehículos particulares.
7
Referencias
[1] Márquez, J. M. (2012). Cálculo de rutas en sistemas de
e-learning utilizando un algoritmo de optimización
por colonias de hormigas.
[2] Dorigo, M. (1992). Optimization, Learning and Natural
Algorithms, PhD thesis, Politecnico di Milano, Italia, 1992.
[3] Lyon, Smart City: métropole intelligente et durable.
http://www.economie.grandlyon.com/smart-citylyon-france.346.0.html
[4] Contribución al diseño, definición e implementación de
una plataforma de investigación para la Internet del
futuro, basada en un despliegue masivo de redes de
sensores inalámbricos heterogéneos, en el marco de
la Ciudad Inteligente. Tesis Doctoral. J. A. Galache
López. Septiembre de 2013. Universidad de Cantabria. Departamento de Ingeniería Telemática. Accesible online:
http://repositorio.unican.es/xmlui/bitstream/handle/
10902/4422/Tesis%20JAGL.pdf?sequence=1
[5] Miranda Pérez, S. (2014) Desarrollo de una red telemática para la adquisición de datos medioambientales
mediante red de sensores en el municipio de Molins
de Rei. Proyecto Fin de Carrera. Integración de Redes Telemáticas. Universidad Oberta de Cataluña.
Febrero de 2014. Accesible online:
http://openaccess.uoc.edu/webapps/o2/bitstream/10
609/27925/6/smirandapeTFC0114memoria.pdf
[6] Proyecto Rescátame. Red Extensa de Sensores de Calidad del Aire para una Administración del Tráfico
urbano Amigable con el Medio ambientE. Proyecto
LIFE de la UE. http://www.rescatame.eu/
[7] Gómez Pulido, J. A. et al. (2012) Experiencias con redes
de sensores inalámbricos en la Escuela Politécnica
de la Universidad de Extremadura. Jornadas de la
Sociedad de Arquitectura y Tecnología de Computadores (SARTECO) 2012. Universidad Miguel
Hernández. Elche, 19-21 de Septiembre de 2012.
Disponible online:
http://www.jornadassarteco.org/js2012/papers/paper
_8.pdf
[8] Smart City project in Serbia for environmental monitoring by public transportation.
http://www.libelium.com/smart_city_environmental
_parameters_public_transportation_waspmote
[9] Real Decreto 102/2011, de 28 de enero, relativo a la
mejora de la calidad del aire. Boletín Oficial del Estado. Núm 25, 29 de enero de 2011.
98
http://www.boe.es/boe/dias/2011/01/29/pdfs/BOEA-2011-1645.pdf
[10] Proyecto EkoBus.
https://mobiledevelopmentintelligence.com/product
s/3138-ekobus-project
[11] Molina Cantero, F. J. GPS. Departamento de Tecnología Electrónica. Universidad de Sevilla.
http://www.dte.us.es/ing_inf/sac/material/GPS.pdf
[12] Dorigo, M. et al. (1996). Ant System: Optimization by
a colony of cooperating agents. IEEE Transactions
on sistems, man and cybernetics. Part B: cybernetics. Vol. 26. No 1. Febrero 1996.
[13] Ecologistas en Acción (2014). La calidad del aire en el
estado español durante 2013.
http://www.ecologistasenaccion.org/IMG/pdf/infor
me_calidad_aire_2013.pdf
[14] López-Abente et al. (2014). Time trends in municipal
distributions patterns of cancer mortality in Spain.
BMC Cancer 2014, 14:535. doi: 10.1186/14712407-14-535.
99
Creativity Support System for cake design
Francisco J. Ruiz1, Cristóbal Raya1, Albert Samà1 and Núria Agell2
1
Automatic Control Department, BarcelonaTech. Vilanova i la Geltrú, Spain
2
ESADE Business School- Ramon Llull University, Sant Cugat, Spain
Abstract
In this paper, a new formulation of Creativity is
presented in the context of Creativity Support
Systems. This formulation is based on the central
ideas of the theory of Boden. It redefines some
concepts such as appropriateness and relevance
in order to allow the implementation of a support
system for creative people. The approach is
based on the conceptual space proposed by
Boden and formalized by other authors. The presented formulation is applied to a real case in
which a new chocolate cake with fruit is design.
Data collected from a Spanish chocolate chef has
been used to validate the proposed system. Experimental results show that the formulation presented is not only useful for understanding how
the creative mechanisms of design works, but also facilitates its implementation in real cases to
support creativity processes.
1. Introduction
Creativity Support Systems (CSS) can be defined as systems
capable of enhancing human creativity without necessarily
being creative themselves. They can act as a creative collaborator with scientists, designers, artists and engineers.
CSS consists of applying technology to assist humans in
thinking outside the box and expanding their exploration
boundaries generating ideas that have never been imagined
before [1].
Creativity can be found in almost all human activities, not
only in artistic activities such as paintings, sculpture, music,
literature or architecture, but also in engineering, software
development, scientific discoveries and others. Creativity is
assumed to be closely related to the rational decisionmaking process. In the literature, decision-making processes
are normally considered to be composed by four steps:
Framing the decision, generating alternatives, evaluating
the alternatives and choosing and implementing the chosen
alternative. Creativity is mainly associated to the second
step: generation of alternatives. Alternatives are normally
generated by reviewing processes that were used in the past
or were used in different frameworks with subtly common
aspects. The skills of creative people are on the one hand to
find these apparently different frameworks with common
characteristics and, on the other hand, to evaluate the alternatives taking into account the relation between frameworks.
CSS has a potential role in the food industry. Today, a
significant portion of a food services or manufacturers’
business is focused on generating new ingredient combinations and finding new flavors that will be a commercial
success. This research will allow chefs and other food professionals to be more creative and to shorten the time to
bring a new flavor to market by helping them in the development process.
In this paper, a new formulation of the central ideas of the
well-established theory of Boden about creativity is presented. This new formulation redefines some terms and also
reviews the formal mechanisms of exploratory and transformational creativity based on a conceptual space proposed
by Boden and formalized by others authors in a way that
facilitates the implementation of these mechanisms. To
illustrate this formulation, a computational system is developed and tested in the support process of a creative chocolate designer. The study has been conducted jointly with the
chocolate
chef
Oriol
Balaguer
team
(http://www.oriolbalaguer.com). Oriol Balaguer is one of
the Spanish most awarded pastry chef who is actively involved in the research and development of new products.
The remaining of the paper is organized as follows: first,
a literature review on computational creativity is conducted.
In the third section, the proposed CSS methodology is presented. A real case example where the methodology proposed is applied is given in section four and, finally, in the
last section conclusions and future work are discussed.
2. Computational creativity: State of the
art
Creativity should be regarded as one of the highest-level
cognitive functions of the human mind. It is a phenomenon
whereby something new and valuable is produced such as
100
an idea, a problem solution, a marketing strategy, a literary
work, a painting, a musical composition or a new cookery
recipe. Authors have diverged in the precise definition of
creativity beyond these two features: originality (new) and
appropriateness (valuable).
One of the few attempts to address the problem of creative behavior and its relation with Artificial Intelligence was
done by Margaret Boden [3][4]. She aimed to study creativity processes from a philosophical viewpoint focusing on
understanding human creativity rather than trying to create a
creative machine.
Boden distinguishes between creativity that is novel
merely to the agent that produces it and creativity that is
recognized as novel by the society. The first is usually
known as P-creativity (or “psychological creativity”) and
the second is known as H-creativity (or “historical creativity”).
The most important contribution of Boden study is the introduction of the idea of conceptual space composed by
partial or complete concepts. She conceives the process of
creativity as the location and identification of a concept in
this conceptual space. The creative process can be performed by exploring or transforming this conceptual space.
If the conceptual space is defined through a set of rules,
whenever these rules are satisfied, the creative process can
be thought as finding new and satisfactory elements of this
space. This is the kind of creativity which Boden calls exploratory creativity. If the rules defining the conceptual
space can be changed, then the process is called transformational creativity.
However, from Boden’s study, it is not clear how the
rules give rise to a particular conceptual space and, therefore, what is the true difference between exploring the space
and transforming it. In order to clarify and to formalize the
creative process, G. A. Wigging [5] presented several papers
in which emphasized the notion of search as the central
mechanism for exploratory creativity and the notion of meta-level search related to transformational creativity. Wiggings proposes to define a universe of possibilities U which
is a superset of the conceptual space. The universe is a multidimensional space, whose dimensions are capable of representing all possible concepts which are relevant to the
domain in which we wish to be creative. For transformational creativity to be meaningful, all conceptual spaces are
required to be subsets of U.
Wiggings conceives exploratory creativity as a search of
concepts in a specific conceptual space. The process involves three set of rules that can be denoted as acceptability,
appropriateness and strategy. The first set of rules is associated to the conceptual space membership. Moreover, acceptability is related to the style. On the other hand, appropriateness rules are related to the value of the concept. Valuable concepts may become successful regardless of being
acceptable according to the rules associated to the acceptability. This second set of rules that defines the value of a
concept is much difficult to define because it depends on
cultural and aesthetic aspects, specific context, personal
mood, etc. It is important to remark that, in this context,
appropriate means suitable to the task, but above all original
and surprising. Finally, there exist a third set of rules associated to the search strategy. For instance, some people prefer
to work “top-down”, others “bottom-up”, others rely on adhoc methodologies, using informed or uninformed heuristics
and even at random. Wiggings points out that by separating
acceptability and strategy rules, situations where different
designers, each with a personal way of finding new ideas,
are working within the same style can be described (a
shared notion of acceptability).
From Wiggins perspective, the interaction of these three
sets of rules (acceptability, appropriateness and strategy)
leads to the exploratory creativity process. However, although working within three invariant sets of rules may
produce interesting results, a higher form of creativity can
result from making changes of these rules (transformational
creativity). In other words, on the one hand, exploratory
creativity consists of finding a concept in a specific conceptual space, following a specific strategy and assessing it
using a specific appropriateness set of rules. On the other
hand, transformational creativity consists of the same process than exploratory creativity but changing the conceptual
space, the search strategy or the appropriateness assessment.
Besides Wiggings work, there have been other formalizations of specific aspects of the computational creative process [6][7][8]. Although these formalizations are very helpful in clarifying the nature of creative computation and have
enabled some applications in diverse domains including
graphic design, creative language, video game design and
visual arts [9], the details of most of them are unspecified
and the concepts they include are not easy to implement.
The current paper starts from the central ideas of Boden and
Wiggings and redefines the formal mechanisms of exploratory and transformational creativity in a way which facilitates the implementation of these mechanisms.
3. The proposed CSS
As in Wiggins theory, let’s start by considering a universal
set of all concepts, U. The idea is that U is universal enough
to contain concepts for every type of artifacts that might
ever be conceived. In addition, we define a framework F, as
the object F={C, a(), r()} where C⊂ U is the H-conceptual
space (or “historical conceptual space”) formed by all concepts related to the framework F, and a() and r() are maps
from U to R. a() is the appropriateness and r() is the relevance. The first map is related to the success of considering
this concept while the second one is an objective measure of
the relation of the concept with the framework. The relevance is the result of the experts’ activities. A naïve relevance measure might be a 0/1 value (1 if x∈C and 0 otherwise) but it is possible to consider more complex measures
containing more information about the relation between the
101
concept and the framework. The underlying idea is that,
although evaluating the appropriateness requires some kind
of talent or expertise, relevance evaluation can be performed
by means of an objective analysis of other problems in the
framework. Thus a concept with high relevance in a framework does not necessarily have high appropriateness. In
fact, an original concept always has low relevance in the
considered framework.
In the proposed CSS, it is assumed that an expert i on a
given framework Fo ={C0, a0(), r0()} knows value ao(x) for
some subset Ci0 of C0, but values ao(y) for those concepts
y∉Ci0 are unknown by the expert. Following Boden, we call
Ci0 the psychological or P-conceptual space, that is, the
concept space associated to the framework Fo and to the
expert i. At the same time, the expert does not necessarily
know ai(x) for another framework Fi. Thus, it is considered
that expertise of the expert is only guaranteed in a single
framework.
In this model, we consider that function a() depends on
the framework but not on the expert. The difference between experts of the same framework is related to the different P-conceptual spaces, all them subsets of the Hconceptual space. In addition, the activity of an expert is not
only to evaluate concepts but specially selecting them following some selection strategy. Once a new concept is selected and applied by the expert, if this does not belong to
the P-conceptual space, the expert can obtain the value of
a() and hence, the P-conceptual space and/or the Hconceptual space is extended to include this new concept.
Let us consider a set of different frameworks F1, F2,…,
Fm. If x∈ U is a concept, we can consider the relevance
vector of x respect to the set of frameworks F1, F2,…, Fm as
Φ(x)=(r1(x), r2(x),…, rm(x)). This vector describes the membership relation of x to the set of frameworks F1, F2,…, Fm .
If x∉Ci, then ri(x)=0. Following Boden notation, if the expert only explores the conceptual space Ci0, the task is just
exploratory creativity. If the expert explores beyond Ci0 by
extending it, transformational creativity is then performed.
The utility of CSS relies on proposing new concepts y∈ U,
y∉Ci0 to the expert from the relevance information of these
concepts with respect to frameworks different to the one
initially considered and from the relation among all these
frameworks.
The system that we consider is able to propose new
concepts y∈ U, y∉ Ci0 with likely high a0(y). In order to
predict how valuable a new concept y is, i.e a0(y), our hypothesis is that no obvious relations between different
frameworks exist, therefore the appropriateness a0(y) and
the relevance vector Φ(y) are closely related. In this sense, it
is considered that concepts with similar relevance vectors on
the current framework should have similar appropriateness
function. This hypothesis could not be true for a small set of
frameworks but seems to be true for larger ones.
Given the relation between appropriateness and relevance, our CSS will use the set Ci0, or a subset of it, as a
training set in a learning system in order to extract the relation between appropriateness in F0 and the relevance vector
in a set of frameworks F1, F2,…, Fm. Once trained, we only
have to feed the CSS with other concepts and the system
will propose those concepts with expected high appropriateness.
We propose in this study an illustrative example to validate our formulation and hypothesis. The example will
highlight the relation between the appropriateness in a given
framework with the relevance of the concept respect other
apparently distinct frameworks.
4. Experimental framework: designing a
new chocolate cake with fruits
To illustrate the implementation of the ideas presented in the
previous section, let us consider the following creative problem: creating a new chocolate cake by combining dark
chocolate with a fruit to obtain a highly accepted product.
The expert that has to create the new chocolate cake has a
large experience in combining chocolate with many different ingredients –cheese, liqueurs, olive oil, nuts and, of
course, fruits. Due to his experience, he knows whether
several combinations of specific types of chocolates and
fruits are suitable or not but, of course, he does not know
how well chocolate combines with all existing fruits. Thus,
a CSS is going to be developed according to the methodology presented in the previous section in order to assist the
expert in creating suitable new combination.
In our case, since we constrained the problem to combine fruit and dark chocolate, the universe U is formed by all
fruits. The P-conceptual space Ci0, which consists in all
fruits that the expert knows whether they blends in well or
not with dark chocolate, is just a subset of U. Moreover, the
expert is able to assign a value a0 (x) for all x∈ Ci0, which is
represented as a qualitative value (very bad, bad,…, good
and very good). The objective of our CSS consists in suggesting other fruits y∈ U, y∉ Ci0, with a high predicted value function a0 (y), i.e. they are valuable to the expert.
Following the proposed CSS methodology, we can
learn the value a() of a fruit respect to the dark chocolate
(framework F0) through the way it is related to other
frameworks. In this example we are considering only
frameworks related with recipes and ingredients, but other
alternatives could also be considered. For obtaining the
relevance value with respect to a framework we have made
use of a large recipe databases and we counted the number
of recipes containing both the fruit and the term associated
to the framework.
Although the combination of fruits and dark chocolate
could have nothing to do with the combination of fruits and
rice, for instance, according to our assumption, given a fruit
that has high value of a0 and has similar relevance vector
102
than another unknown fruit, this unknown fruit could be
considered as a good option for extending the search.
4.1 Data collection
In order to validate our method, we used the data provided by the chocolate chef Oriol Balaguer who assessed,
according to his expertise, the combinations of 28 different
fruits respect to their suitability to combine with dark chocolate [10]. In addition we have considered 14 frameworks
aside from the main framework (dark chocolate). All considered frameworks consisted in ingredients used in cooking, but not necessarily in pastry making. In this implementation of the CSS, we are not focusing on the frameworks
selection problem. Instead, we think that the ad-hoc selection for this example is enough for illustrating how the formulation presented can be implemented and we leave
framework selection as a near future work.
In order to obtain the relevance vector for each fruit we
used the online database of recipes www.allrecipes.com.
Table 1 depicts the list of the 28 fruits and 14 frameworks.
The last column of this table shows the qualitative assessment provided by the expert following the labels in table 2.
Values of table 1 are obtained by searching both terms simultaneously (fruit and framework). This value represents the
number of recipes of the database containing both terms.
We can think that this list of 28 fruits constitutes the
conceptual space and the CSS can learn the relation between
the relevance vector of these fruits with respect to the 14
frameworks and the assessment provided by the expert.
Once this relation is captured the CSS can obtain the relevance vector of other fruits respect to this set of frameworks. It calculates the predicted value a0 for these new
fruits and proposed those which have high predicted a0.
Table 2. Labels and linguistic meaning in the fruit assessment by the
expert.
Labels
1
2
3
4
5
Linguistic labels
It does not combine at all
It does not combine well
Combines well
Combines very well
It is an excellent combination
4.2 CSS training and results
Our proposal is based on the existing relation between
the appropriateness of a concept with respect to a framework and the relevance vector of this concept with respect
to a set of other frameworks. To validate this, we used data
from Table 1 for obtaining this relation and assessing its
significance. This validation is performed twice by using, on
the one hand, the complete range of expert’s valuation
shown in Table 2 and, on the other hand, using just a binary
valuation (suitable or not suitable) that simplifies expert’s
assessment. We used a multiclass and a two-class support
vector machines (SVM) and we validated it by means of a
leave one out cross-validation process. If the SVM can correctly estimate the appropriateness of a fruit from the relevance vector, it can be used to propose new fruits with high
predicted appropriateness.
Table 1. List of the some fruits assessed by the expert (last column) and the
list of some frameworks considered in this example.
rice chicken vinegar sugar pie caramel bread app
331 494
606
2265 586 152
525 1
Apple
1
18 29
49
185 38 17
38
Pear
2
0 0
0
7
0 0
0
Quince
4
53 80
51
250 30 6
51
Apricot
3
26 44
49
374 150 3
53
Peach
5
55 119
91
142 18 2
89
Plum
4
0
4
0 0
0
Boysenberry 0 0
4
15
156 72 5
10
Blackberry 4 6
95
794 219 8
116 4
Strawberry 25 38
5
0 0
0
0
0 0
0
Bilberry
Parameters of the SVM were tuned by optimizing the
geometric mean of sensitivity and specificity because data
are imbalanced. In the first case, we employed a multiclass
SVM (5 classes) with a Gaussian kernel. The best parameters obtained were C=1000 (regularization cost) and γ=
10000 (Gaussian kernel parameter). Software R and
LibSVM library were used to train the datasets and predict
accuracy of classifying. The total accuracy obtained is
42.86%. This value means that 42.86% of the times, the
predicted value match to the expert assessment. Taking into
account that there are 5 classes and the expected accuracy in
the case of random values is 100/5=20%, the accuracy value
obtained reaffirms our hypothesis. In the second case, pattern labels are changed in order to maximize CSS utility.
Instead of labels showed in Table 1, a binary classification
is employed in which the first class contains those combinations that are suitable to the expert and the second class
those which are not. Patterns corresponding to values 3 and
less are considered to the first class and the rest of patterns
are considered to belong to the second class. In this case, the
best parameters obtained by the tuning process were
C=100000 and γ= 0.1. The total accuracy obtained is 85%.
Conclusion and Future work
In this paper we proposed a new formalization of the mechanism of creativity based on the Boden notions of conceptual space and transformational creativity through a search
beyond the boundaries of this conceptual space. This study
redefines the formal mechanisms of exploratory and transformational creativity introducing the concepts of framework and relevance of a concept with respect to a framework. The formalization presented has been implemented in
a real example conducted with a Spanish chocolate chef.
103
The obtained CSS was able to propose new unknown fruits
that are predicted to combine well with dark chocolate. The
validation of the method has been performed using a SVM.
The obtained results allow us to conclude that the assumptions on which the method is based are satisfied in this example.
It is important to remark that in this implementation we are
not focusing on the frameworks selection problem. This is
an important point to study in future work. Also, including
both complete and incomplete concepts to the formalization
presented will be an interesting topic for research.
Acknowledgments
This work is supported by the Spanish project SENSORIAL
(TIN2010-20966-C02-02) Spanish Ministry of Education
and Science.
References
[1] C.J. Thornton, How thinking inside the box can become thinking
outside the box. In Proceedings of the 4th international Joint Workshop on Computational Creativity, (2007).
[2] B. Shneiderman, Creating Creativity: User Interfaces for Supporting
Innovation, ACM Transactions on Computer-Human Interaction 7,1
(2000), 114-138.
[3] M.A. Boden, The Creative Mind: Myths and Mechanism. Weidenfiel
and Nicholson, London, (1990).
[4] M.A. Boden, What is creativity? In M.A.Boden, editor, Dimensions of
Creativity. MIT Press (1996), 75-118.
[5] G. Wiggins, A preliminary framework for description, analysis and
comparison of creative systems. Knowledge-Based Systems 19
(2006), 449-458.
[6] G. Ritchie, Some empirical criteria for attributing creativity to a computer program. Minds and Machines 17 (1) (2007), 67-69 (2007).
[7] G. Ritchie, A closer look at creativity as search, In Proccedings of the
3rd International Conference on Computational Creativity (2012).
[8] J. Charnley, A. Pease and S. Colton. On the Notion of Framing in
Computational Creativity, In Proccedings of the 3rd International
Conference on Computational Creativity (2012).
[9] R. Manurung, G. Ritchie and H. Thompson. Using a genetic algorithms
to create meaningful poetic text. Journal of Experimental & Theoretical Artificial Intelligence 24(1), (2012), 43-64.
[10] N. Agell, G. Sánchez, M. Sánchez, F. Ruiz, Group decision-making
system based on a qualitative location function. An application to
chocolates design, In Proccedings of the 27th International Workshop
on Qualitative Reasoning (2013).
XVI Jornadas de ARCA
104
105
Equilibrio del Robot AIBO usando DMPs∗
Lluı́s Salord, Cecilio Angulo, Manel Velasco
Universitat Politècnica de Catalunya · UPC BarcelonaTech
Pau Gargallo 5. ESAII – Departament d’Automàtica, Barcelona, Spain 08028
l.salord.quetglas@gmail.com, {cecilio.angulo, manel.velasco}@upc.edu
Abstract
El trabajo presentado se enmarca en una iniciativa
global que tiene como objeto la recuperación de la
plataforma robótica AIBO de Sony. Para demostrar
las prestaciones de la arquitectura propuesta y la
viabilidad del robot AIBO como plataforma robótica útil, se han escogido algoritmos de aprendizaje por refuerzo muy novedosos como implementación en la tarea de mantener el equilibrio ante movimientos indeseados en la base de apoyo del robot.
El robot AIBO puede ser controlado de forma permanente con un tiempo de respuesta adecuado para
la tarea.
1.
Introducción
Este trabajo forma parte de una iniciativa por fomentar la
reutilización del robot AIBO de Sony. En esta dirección, la
implementación de la tarea de mantener el equilibrio por parte de un robot cuadrúpedo, como es el caso del robot AIBO,
serı́a factible a través de un gran número de algoritmos diferentes. Sin embargo, con objeto de demostrar la viabilidad
del uso de robots AIBO en la robótica móvil actual, pese a la
discontinuidad en su fabricación y servicio, se han escogido
algoritmos, medios de comunicación y marcos de programación novedosos y del todo actuales.
Ası́, en los centros de investigación robótica de mayor nivel, como es el caso de Boston Dynamics, se está trabajando
de un tiempo a esta parte con algoritmos DMPs (Dynamic
Movement Primitives) [Schaal, 2006] como forma de creación de trayectorias en los robots móviles cuadrúpedos más
avanzados [Raibert, 2008]. Se trata de algoritmos tales que,
dada una demostración inicial de la dinámica aproximada del
movimiento a realizar, adaptan la trayectoria original a la situación actual, generalmente cambiante, ya sea debido a una
modificación en el punto inicial de movimiento, en el objetivo de movimiento o en obstáculos en el recorrido del movimiento. Una de las grandes ventajas en el uso de DMPs es la
posibilidad de realizar el control de un robot sin tener información del modelo mecánico que lo representa.
∗
Este trabajo ha sido financiado parcialmente por los proyectos
de investigación PATRICIA (TIN2012-38416-C03-01) y EVENTS
(DPI2010-18601), ambos financiados por el Ministerio de Economı́a
y Competitividad del Gobierno de España.
Además, se ha decidido utilizar el entorno de trabajo de
ROS (Robotic Operative System), que permite la creación de
un enlace de comunicación entre el ordenador y el robot AIBO1 . Se trata de un entorno de programación open source
que se ha convertido en un estándar de facto en el mundo
de la robótica móvil y se abre camino en los dominios de la
robótica industrial.
Al robot AIBO se le ha dotado de un sensor triaxial de accelerometrı́a, ası́ como un giroscopio de tres ejes, con el objetivo de disponer de información del movimiento en el centro de gravedad del robot, el cual deseamos mantener estable.
Con ayuda de las DMPs, junto con el algoritmo de aprendizaje por refuerzo PI2 (Path Integral Policy Improvement)
[Buchli et al., 2011] se analizará la información recogida por
los sensores inerciales, en especial el ángulo de inclinación
del centro de gravedad del robot y se intentará su control para
que se acerque lo más posible a la horizontal. Para la experimentación se ha utilizado una plataforma móvil de dos ejes
controlada por un procesador Arduino, sobre la que se sitúa
el robot AIBO. Al inclinarse la plataforma, el robot adapta la
posición de sus motores para recuperar la posición de equilibrio.
A la hora de implementar, tanto las DMPs como el algoritme PI2 , se ha utilizado el código sobre ROS del CLMC Lab,
en la University of Southern California2 . Se trata de un código
más complejo que el necesario para nuestra aplicación pues
está pensado para el robot PR2 de Willow Garage [Bohren et
al., 2011]. Por ello, se ha adaptado al robot AIBO eliminando
aquellos packages innecesarios y modificando otros. Además,
se ha creado un ejecutable que permite el funcionamiento del
robot con el conjunto de algoritmos implicados.
2.
Estado del arte
En la investigación sobre estabilidad de robots, tanto bı́pedos como cuadrúpedos, existen mltitud de trabajos. A continuación se exponen un conjunto de antecedentes, organizados
1
El package que permite esta coumincación ha sido diseñado inicialmente por el Dr. Ricado A. Téllez y posteriormente desarrollado
en el Departamento de Automática de la Universitat Politècnica de
Catalunya.
2
La página principal es http://www-clmc.usc.edu/ y el github es
https://github.com/usc-clmc/usc-clmc-ros-pkg
106
en diferentes ámbitos, que son de interés para el experimentación llevada a cabo.
2.1. Robot AIBO
El robot AIBO (Artificial Intelligence RoBOt) es un robot
cuadrúpedo diseñado y fabricado por Sony Corporation, con
apariencia canina. El ERS-7 es el modelo elegido para el presente trabajo.
Este robot se considera autónomo en tanto que es capaz
de extraer información de su entorno, funcionar por un largo
perı́odo sin intervención humana, mover alguna de sus partes
en un entorno de trabajo y, finalmente, evitar situaciones de
peligro para las personas, los bienes y él mismo.
Los diseñadores del robot AIBO persiguieron el objetivo
de conseguir que su comportamiento fuera lo más realista
posbile. Para ello, avanzaron en diferentes caminos:
Estı́mulos
• Comportamientos reflexivos y deliberados según
una escala de tiempo.
• Comportamientos por órdenes externas y por deseos internos (instintos y emociones).
• Motivaciones independientes generadas por partes
del robot como cuello, cola y patas.
Instintos y emociones con los que poder cambiar el comportamiento ante otros estı́mulos externos.
Aprendizaje y evolución.
Las caracterı́sticas hardware del robot pueden consultarse
en [Anshar and Williams, 2007]. Las articulaciones, controladas mediante algoritmos PID, poseen rangos de trabajo diferentes según sea su función y las propias limitaciones fı́sicas.
En cuanto al software, el robot AIBO funciona a partir de
un sistema operativo denominado Aperios, desarrollado por
Sony. Luego podrı́a considerarse que posee varias capas de
programario que permmiten el control del robot. Uno de los
mayores problemas con el robot AIBO, y uno de los motivos
del cese de su fabricación, es la dificultad para descentralizar
los cálculos en un procesador externo.
2.2.
Entorno de trabajo ROS
Robot Operating System [Robot Operating System, 2014]
es un entorno de trabajo open-source y flexible para la programación de robots. Las bases de este proyecto se iniciaron
con unas investigaciones en Stanford en 2007, cuando se llevaron a cabo diferentes prototipos de entornos de trabajo para
programario de robots, como por ejemplo STanford Artificial
Intelligence Robot (STAIR) o Personal Robotics (PR). Más
adelante, Willow Garage, una empresa inversora en robótica,
proveyó de recursos para mejorar el concepto y permitir crear
implementaciones correctamente testadas. Finalmente, con la
colaboración desinteresada de numerosos investigadores, se
ha mejorado el núcleo de ROS y las herramientas principales
asociadas, convirtiéndose en una de las plataformas con más
diversidad de algoritmos y más utilizada en las investigaciones de robótica.
Objetivos de ROS
El principal objetivo de ROS es poder reutilizar el código
de desarrollo y de investigación en robótica. Ello se consigue mediante una estructura de procesos distribuidos. Otras
caracterı́sticas propias son además:
Descentralización. ROS está estructurado de forma que los
processos están distribuidos, con la posibilidad de hallarse en hosts diferentes, pero funcionando conjuntamente.
Plurilingüismo. ROS se ha diseñado para ser neutral en
cuanto al lenguaje de programación. Actualmente admite cuatro lenguajes de programación: C++, Python,
Octave y LISP, habiendo ya otros en desarrollo.
Basado en herramientas. Se ha optado por diseñar un
núcleo simple, sobre el que se utilizan multitud de herramientas para construir i hacer funcionar los diversos
componentse de ROS.
Capa intermedia fina. En ROS se induce la independencia
de los algoritmos con su núcleo creándolos en librerı́as
separadas. Se facilita la extracción de código y su reuso.
Gratuito y open-source. El código nativo de ROS está disponible públicamente. Este hecho permite facilitar el
testeo y corrección de software en todos los niveles.
Herramientas de ROS
ROS se basa, en gran parte, en la multitud de herramientas disponibles para tareas como, por ejemplo, navegar por el
árbol de código fuente, obtener y establecer los parámetros de
configuración, visualizar las conexiones entre procesos, medir el uso de ancho de banda, exponer de forma gráfica los
datos de los mensajes. A continuación se listan algunas de las
más utilizadas:
rviz
Entorno de visualización 3D que permite combinar los
datos de los sensores del robot y el modelo.
rosbag, rxbag y rxplot
Permiten almacenar y reproducir los datos de un mensaje o un tópico, ası́ como visualizarlos en forma gráfica.
rxgraph
Expone visualmente cómo funcionan los processos de
ROS y sus conexiones.
2.3.
DMP (Dynamic Movement Primitive)
Las DMPs representan un movimiento a partir de un conjunto de ecuaciones diferenciales, de forma que la dinámica del propio sistema sea capaz de corregir las perturbaciones que puedan aparecer. Además, la representación del movimiento permite modificar de forma sencilla el objetivo (o
goal), ası́ como la velocidad del movimiento. Esta robustez y
adaptabilidad permiten mejorar los algoritmos utilizados en
aprendizaje por demostración (learning from demostration o
LfD).
El LfD podrı́a estructurarse en tres grandes grupos, en función de cómo se adquieren los datos utilizados en la demostración:
Imitación. El ejemplo se realiza sobre una plataforma que
no es el robot, por lo que la información extraı́da debe
107
ser modificada e interpretada para adecuarse a las articulaciones del robot.
Demostración. La ejecución se realiza sobre el mismo robot. Un método podrı́a ser la tele operación del robot
por parte del demostrador.
Trayectoria programada. La demostración se provee en
forma de una serie de coordenadas de una trayectoria.
El sistema dinámico se puede interpretar como un sistema proporcional - derivativo (PD), con partámetros K, para
el coeficiente proporcional, y D, para el derivativo. Las variables x y v corresponden a la posición y a la velocidad, la
constante τ es el perı́odo de muestreo del movimiento y g es
el parámetro de atracción del sistema.
τ v̇ = K(g − x) − Dv + (g − x0 )f (s)
(1)
τ ẋ = v
(2)
El sistema dinámico unidimensional (1)-(2) es estable, con
punto final la posición g, para cualquier valor que tome f (s),
una función no lineal que no depende del tiempo, sino de una
variable de fase s ∈ [0, 1] que representa la duración del movimiento en tanto por uno.
P
i wi ψi (s)s
f (s) = P
(3)
i ψi (s)
τ ṡ = −αs
(4)
La variable canónica posee una dinámica de desplazamiento definida por τ y por α, una constante pre-definida, como
se aprecia en la ecuación diferencial (4). Además, la función f (s) puede aprender con objeto de realizar movimientos complejos de forma arbitraria, de acuerdo al ajuste de los
pesos wi .
Las ψi (s) son funciones base, en general gaussianas
ψi (s) = exp(−hi (s − ci )2 ) que permitirán modificar la trayectoria inicial definida por los parámetros K y D (Figura 1),
para ası́ poderse adaptar a nuevas situaciones, como evadir
obstáculos, cambio de punto final, etc.
Figura 2: Efecto de los pesos wi (representados por θ) y del
objetivo (goal) en la trayectoria.
la posibilidad de comunicación del robot AIBO a través
de ROS. Por ello, siguiendo una iniciativa del Departament
d’Automàtica de la Universitat Politècnica de Catalunya, a
través de diversos trabajos académicos, se ha promovido la
realización de un package para permitir que el robot AIBO
pueda trabajar con ROS. Gracias a ello, ahora es posible la
transferencia de video, sonido y del control de las articulaciones del robot. Actualmente la conexión con AIBO comporta
la creación de seis topics donde éste publica y dos en los
que está como subscriptor:
Publica en los topics:
/aibo/infrared Información de cada sensor de infra rojos (distanceChest, distanceNear,
distanceFar), con la distancia calculada a un
eventual obstáculo.
/aibo/image Publica las imágenes de la cámara frontal
del AIBO, en formato sensor msgs::Image.
/aibo/joints Información sobre las posiciones de cada
una de las articulaciones en unidades de grados.
/aibo/accel Información del accelerómetre incorporado
en el AIBO en unidades de m/s2 .
/aibo/paws Los sensores de contacto de las patas son
binarios.
/aibo/touch Para los sensores de presión.
Subscriptor de los topics:
Figura 1: Representación de la DMP con función no lineal y
sin ella.
Realmente, en las DMPs, lo que determina la trayectoria
es la parte no lineal, y esta se ve controlada por los pesos wi
(ver Figura 2).
3.
3.1.
Estudios iniciales
Comunicación mediante ROS
El entorno de trabajo ROS es una herramienta que está
al orden del dı́a en robótica. Hasta el momento, no existı́a
/aibo/sound Donde se publican los sonidos a ser reproducidos per AIBO.
/aibo/subJoints Donde se informa a AIBO de la posición deseada para las articulaciones. El mensaje es
de tipo aibo server::Joints3 con las unidades en grados.
Entre AIBO y ROS
El funcionamiento actual de la comunicación entre AIBO y
ROS se basa en URBI. De igual forma, las acciones de control
publicadas en ROS se interpretan y se transforman en comandos de URBI. Estas dos tareas se reproducen en paralelo a
través de dos clientes de URBI por separado: (1) cliente publicador, que es el que introduce los datos de AIBO en los
3
Este tipo de mensaje está incluı́do en el package
aibo server.
108
Figura 3: Comunicació entre l’AIBO, URBI i ROS
topics; (2) client subscriptor, con la función de recoger lo
que se ha publicado en el topic de comandos.
Publicación en ROS de información de AIBO a través de
URBI
1. URBI solicita la informació a AIBO, en forma de
callbacks.
2. URBI, por otra parte, publica de forma continuada
en los topics, donde hay subscriptores, el mensaje relacionado con el topic.
3. En el momento en que la información de AIBO es
recibida por URBI, se modifica el mensaje que este
publica en ROS.
Control de las articulaciones a partir de un topic
1. El algoritmo de control crea un topic denominado aibo server/aibo/subJoints, y cada
vez que se ha de modificar la posición de las articulaciones, publica un message4 .
2. Al aparecer un nuevo message en el topic, URBI toma el message y lo transforma para enviarlo
como comando a las articulaciones de AIBO.
3.2.
Entre el algoritmo de control y ROS
Con “algoritmo de control” nos referimos al código que
procesa los cálculos que se requieren para llevar a cabo todo el proceso de estabilización. Este código se ejecuta en un
ordenador o servidor, donde está instalado todo el software
requerido.
El algoritmo de control sólo depende de ROS para recoger
la información del conjunto accelerómetro-giroscopio y para
ejecutar el movimiento de las articulaciones de AIBO. Por
tanto, el node de ejecución es tanto subscriptor del topic
del sensor, como, a la vez, es publicador del topic de los
comandos para las articulaciones.
3.3.
Entre el Arduino y ROS
El conjunt accelerómetro-giroscopio está conectado al Arduino, por lo que ha de ser éste quien cree el topic donde se publica la información que ha de transmitir por ROS
al algoritmo de control. Para ello se utilizará el package
rosserial.
4.
Control de estabilidad
Intentar estudiar la estabilidad dinámica del robot [Yazdani
et al., 2012] implicarı́a un grado de complejidad demasiado
elevado, por lo que el trabajo se ha limitado a la estabilidad
estática [Hugel and Blazevic, 1999], es decir mantener el centro de gravedad CdG del robot dentro del polı́gono de estabilidad en todo momento.
Se han planteado dos tipos de aproximaciones al problema.
La primera consiste en intentar mantener el CdG siempre en
4
El message contiene un conjunto de floats que representan
cada una de las articulaciones.
el mismo punto. La plataforma introduce una perturbación al
sistema, desplazando el robot, quien ha de interpretar el desplazamiento e intentar corregirlo. Este planteamiento, como
se verá, supera el grado de precisión conseguido por los sensores, por lo que será desestimada. La otra posibilidad, más
sencilla, consiste en mantener la horizontalidad del cuerpo de
AIBO. Es decir, el robot ha de ser capaz de reaccionar ante
movimientos de la plataforma base con el objetivo de mantenerse en horizontal. Esta es la aproximación que se tomará.
Una forma de realizar el control de estabilidad podrı́a ser
basándose en un modelo de AIBO. Además de beneficiarse de
la cinemática inversa, un modelo permirı́a aplicar algoritmos
de control de estabilidad de forma virtual, en un simulador.
Sin embargo, no existe en la literatura un modelo del sistema
‘AIBO’ lo bastante preciso como para poder trabajar con su
estabilidad
Por ello, y con objeto de demostrar la viabilidad del entorno creado sobre un robot que ya no está en producción
desde hace años, se ha determinado utilizar los algoritmos de
DMPs, los cuales trabajan sin necesidad de conocer el modelo del sistema que están controlando y constituyen el estado
del arte en aprendizaje robótico.
La creación del algoritmo de control de estabilidad basado
en DMPs re realizará a partir del package de Scott Niekum,
que está diseñado sobre el algoritmo modificado de [Pastor et
al., 2009]:
1. Dada una trayectoria, se calculan los pesos que la aproximan y se crea la DMP.
2. Proporcionadas las caracterı́sticas del movimiento
deseado (posición y velocidad actual, objetivo final,
tiempo. . . ), se realiza el cálculo de las acciones de control.
3. Para cada acción de control se comprueba si existe modificación del objetivo final o si se ha acabado de realizar
el movimiento. En caso de cambiar de objetivo, se repite
el paso anterior; en caso de haber finalizado, se para el
robot y se procede a comprobar continuadamente si se
genera un nuevo punto objetivo.
5.
Implementación
La fotografı́a de conjunto del sistema implementado es la
que puede observarse a la Figura 4.
Un requisito imprescindible para poder conseguir recuperar la estabilidad del robot es disponer de medidas de los movimientos del robot. Inicialmente se pensó en utilizar el sensor triaxial de accelerometrı́a que lleva incorporado el propio
AIBO, y de esta forma poder estudiar su movimiento. Sin embargo, unas primeras comprobaciones ya demostraron que la
medida del ángulo de inclinación extraı́da no era fiable ni lo
bastante precisa para la tarea a desarrollar.
5.1.
Sensores
Por ello, se procedió a comprar un sensor externo triaxial
de accelerometrı́a con un giroscopio de tres ejes. El accelerómetro es un MPU6050 y el giroscopio un GY-521. Se
han escogido por estar diseñados para poder ser utilizados
con Arduino. Además, existe mucha información sobre ellos,
109
Figura 4: Fotografı́a del conjunto de elementos.
como librerı́as (i2cdevlib), aplicaciones realizadas, y es
muy recomendable por su calidad-precio.
El cálculo de la inclinación se realiza utilizando el giroscopio como medida y filtrando los datos con ayuda de las
medidas del accelerómetro, ya sea como un filtro de Kalman
o como un filtro complementario. Ambos filtros no difieren demasiado en los resultados aportados, el Kalman siendo
algo más preciso, pero requiere de mayores recursos computacionales.
Puesto que se cuenta con un Arduino Uno para realizar el
procesado y la librerı́a de ROS ya ocupa prácticamente la mitad de la memoria del microcontrolador, se ha optado por el
filtro complementario,
θcompl = (1 − λ)(θcompl + wgiro dt) + λθaccel
(5)
sobre el que se han realizado algunas mejoras. Para trabajar
con la horizontalidad del robot ya es suficiente con la medida
de la inclinación.
5.2. Comunicaciones
En el apartado 3.3 se explicó la forma de transmisión de la
información desde Arduino a ROS. La comunicación entre el
sensor y el microcontrolador se basará en el bus de comunicación I2 C, un bus bidireccional, pero que no permite enviar
y recibir información de forma simultánea.
La comunicació con AIBO desde el ordenador donde corre
el algoritmo de control de estabilidad se realiza a través de un
Access Point (AP). El tipo de cifrado de la contraseña debe
ser WEP o sin contraseña.
Para configurar la tarjeta de red de AIBO se ha de acceder al fichero de configuración de la tarjeta de memoria OPEN-R\SYSTEM\CONF\WLANDFLT.TXT. Una posible configuración es la que se expone a continuación, [Téllez,
2004]
HOSTNAME=AIBO
ETHER_IP=192.168.10.124
ETHER_NETMASK=255.255.255.0
IP_GATEWAY=192.168.10.1
ESSID=AIBONET
WEPENABLE=1
WEPKEY=AIBO2
APMODE=2 # this mode indicates auto-mode
CHANNEL=3
5.3.
Procesos iniciales
Para el buen funcionamiento de las DMPs es necesario iniciar una serie de procesos que permitan el intercambio de información y ası́ poner en funcionamiento el conjunto de sistemas.
Primero se inicia la carga del programa de
control del CdG en Arduino. En el GitHub
github.com/lluissalord/TFG puede recuperarse un
programa de Arduino (arduino/MPU6050 compl.ino)
que debe ser instalado en la placa para poder transmitir
110
de forma correcta la información en el topic de ROS
correspondiente (/pos).
Parar poder realizar la carga del programa, se ha de tener
conectado el Arduino con un cable USB al ordenador, se ha de
abrir con el IDE de Arduino el fichero mencionado y realizar
la opción Archivo->Subir.
Una vez dispuesto el Arduino, viene la fase de ejecución
por lı́nea de comandos, las cuales podrı́an integrarse en un
fichero launch. Cada una de las acciones seguientes debe realizarse por separado en un terminal independiente, preferiblemente en este orden:
$ roscore ejecuta el ROS Master.
$ rosrun rosserial python serial node.py \dev\ttyACM0
activa la comunicación entre el Arduino y ROS.
Podrı́a darse el caso que la entrada de datos no sea
\dev\ttyACM0; para corroborarlo se ha de observar
en el IDE de Arduino a qué puerto está conectado.
$ rosrun aibo server aibo server 192.168.0.124 ejecución
del programa que permite la comunicación AIBO-ROS.
El número 192.168.0.124 es la IP del robot AIBO, la
cual varı́a según la configuración que se haya seguido
en la fase de set-up de la conexión inalámbrica.
$ rosrun dmp execute dmp execute 0 inicia el algoritmo
de control. El número final varı́a entre 1 y 0, según si
se desea utilizar el algoritmo de aprendizaje PI2 o no,
respectivamente.
5.4. Funcionamiento de DMPs con PI2
El funcionamiento con el uso del algoritmo PI2 varı́a significativamente respecto a las DMPs originales. El algoritmo
PI2 ha de permitir un proceso de aprenendizaje iterativo hacia el objetivo fijado, sin cambiar las condiciones del entorno.
Aunque el algoritmo ha sido generado, los resultados no fueron satisfactorios, por lo que se descartó su uso en este trabajo.
6.
Resultados, conclusiones y trabajos futuros
Puede considerarse que los resultados conseguidos son
muy satisfactorios ya que se han cubierto los objetivos previstos.
A nivel global, se ha podido realizar la optimización de la
adaptabilidad del robot a un entorno accesible y desconocido.
A nivel de objetivos especı́ficos, en cuanto a accesibilidad del trabajo para futuras extensiones, en tanto que
englobado en la iniciativa de recuperación del robot AIBO de Sony, se ha actualizado continuadamente una plataforma de desarrollo colectivo de software GitHub. Toda
la faena realizada puede consultarse y descargarse desde
https://github.com/lluissalord/TFG/. En referencia a la implementación del entorno de comunicación,
se ha mejorado el package inicial. Se ha podido también
demostrar cómo esta plataforma permite la implementación
de algoritmos de control que son estado del arte a nivel de
investigación. Por otra parte, se ha realizado un estudio de los
moviments del robot a partir de un sensor externo triaxial de
accelerometrı́a y un giroscopio de tres ejes. Las inclinaciones
se han registrado perfectamente, con una precisión superior
a la requerida para los cálculos. Sin embargo, la información
de los desplazamientos calculada a partir del accelerómetro
no es fiable.
Se pueden, además, plantear varias lı́neas de trabajo: (1)
mejoras en la comunicación AIBO-ROS, la cual provoca actualmente bloqueos temporales; (2) implementación del algoritmo PI2 de forma más integrada; (3) plataforma automatizada para facilitar el aprenendizaje del algoritme anterior
manteniendo una inclinación constante; (4) conseguir extraer
el desplazamiento del CdG gracies al uso de algoritmos de
visión; (5) mejorar el modelo del robot AIBO.
Referencias
[Anshar and Williams, 2007] Muh. Anshar and Mary-Anne
Williams. Extended Evolutionary Fast Learn-to-Walk Approach for Four-Legged Robots. Journal of Bionic Engineering, 4(4):255–263, December 2007.
[Bohren et al., 2011] Jonathan Bohren, Radu Bogdan Rusu,
Edward Gil Jones, Eitan Marder-Eppstein, Caroline Pantofaru, Melonee Wise, Lorenz Mösenlechner, Wim Meeussen, and Stefan Holzer. Towards autonomous robotic
butlers: Lessons learned with the PR2. In ICRA, pages
5568–5575. IEEE, 2011.
[Buchli et al., 2011] Jonas Buchli, Freek Stulp, Evangelos
Theodorou, and Stefan Schaal. Learning variable impedance control. International Journal of Robotics Research,
2011.
[Hugel and Blazevic, 1999] Vincent Hugel and Pierre Blazevic. Towards efficient implementation of quadruped gaits
with duty factor of 0.75. Robotics and Automation, 1999.
. . . , (May), 1999.
[Pastor et al., 2009] Peter Pastor, Heiko Hoffmann, Tamim
Asfour, and Stefan Schaal. Learning and generalization of
motor skills by learning from demonstration. 2009 IEEE
International Conference on Robotics and Automation, pages 763–768, May 2009.
[Raibert, 2008] Marc Raibert. BigDog, the Rough-Terrain
Quadruped Robot. In Myung J. Chung, editor, Proceedings of the 17th IFAC World Congress, volume 17, 2008.
[Robot Operating System, 2014] Robot Operating System.
ROS.org, 2014. Fecha de consulta: 22/02/2014.
[Schaal, 2006] Stefan Schaal. Dynamic Movement Primitives -A Framework for Motor Control in Humans and Humanoid Robotics. In Hiroshi Kimura, Kazuo Tsuchiya,
Akio Ishiguro, and Hartmut Witte, editors, Adaptive Motion of Animals and Machines, pages 261–280. Springer
Tokyo, 2006.
[Téllez, 2004] Ricardo A. Téllez. Aibo Quickstart Manual.
Technical report, Grup de Recerca en Enginyeria del Coneixement (GREC), 2004.
[Yazdani et al., 2012] Reza Yazdani, Vahid Johari Majd, and
Reza Oftadeh. Dynamically stable trajectory planning for
a quadruped robot. 20th Iranian Conference on Electrical
Engineering (ICEE2012), pages 845–850, May 2012.
111
Brain-physical activity mapping using low cost EEG sensors
L.M. Soria Morillo, J.A. Álvarez García, I. Cuadrado-Cordero, J.A. Ortega Ramírez
University of Seville
Computer Languages and Systems Dept.
Avenida Reina Mercedes S/N, 41012
{lsoria, jaalvarez, icuadrado, jortega}@us.es
Abstract
This paper presents a prototype brain interface to recognize a set of activity contexts based on EEG signals.
Electrical impulses are captured using the Emotiv EPOC
and MindWave devices. After signal processing for
noise reduction caused by movement, the signal from the
EEG is classified in order to find structural patterns related to the physical activity performed by the user.
1 Introducción
El uso de la electroencefalografía ha sido usado durante la
última década para el estudio de la actividad cerebral. En la
mayoría de los estudios, se pretende determinar los efectos de
ciertos pensamientos sobre la corteza cerebral. De este modo
se establece una relación causa-efecto que permite estudiar
los diferentes cortex cerebrales.
La combinación entre la medicina y los sistemas de aprendizaje han hecho que se hayan podido alcanzar hitos que eran
impensables hace años. Desde el aislamiento de la actividad
cerebral en función de los pensamientos, hasta el manejo de
dispositivos electrónicos a través de una interfaz cerebral.
Esto ha dado lugar a una nueva era en el ámbito de la interacción persona-computador, caracterizada por la ausencia de
órdenes directas o acciones por parte del usuario, para dar
paso al manejo mediante pensamientos directos.
En el afán de aislar las acciones, los investigadores han determinado asociaciones que permiten determinar si la música
escuchada es o no del gusto del usuario, o si un anuncio de
televisión capta o no la atención del individuo. Esto evidentemente está siendo explotado por la industria publicitaria.
Entre estas acciones, en este estudio prestaremos especial
atención a las interacciones físicas y los efectos que estas provocan en el estado mental del usuario. ¿Cómo afecta al cortex
cerebral una sesión de cocina? ¿Hay efectos a nivel eléctrico
cuando el usuario se encuentra leyendo correos electrónicos?
El determinar estas asociaciones a alto nivel permitirá ir un
paso más allá en el reconocimiento de actividades.
Hasta el momento, la mayoría de trabajos en el ámbito del
reconocimiento físico de actividades han estado basados en
el uso de sensores inerciales o a través de visión por computador. En el primer caso, existen limitaciones que no pueden
ser solventadas por este tipo de sensores, sobre todo en el ámbito de reconocimiento de actividades de alto nivel. Por otro
lado, mediante la visión por computador la intimidad del
usuario queda en entredicho y, aun aceptando esta limitación,
el ámbito de aplicación está limitado a un entorno controlado
de videovigilancia.
El estudio de las señales corticales a alto nivel puede ser
transcendente para establecer relaciones directas y automáticas entre acciones físicas y reflejos mentales que harán que
el entorno del usuario se adapte, no sólo a la actividad realizada, sino al efecto que tiene dicha actividad a nivel subjetivo.
¿Podría imaginar que un sistema de reconocimiento de actividades fuera capaz de determinar que está cocinado? ¿Y si
además reconociera que no le gusta el olor del menú y decidiera ofrecerle la oportunidad de cambiar de plato?
2
Adquisición de datos EEG
El dispositivo Emotiv ha sido elegido por diversas razones
para la adquisición de las señales de actividad cerebral. En
primer lugar debido a su precio que, en comparación con
otros sistemas de electroencefalografía profesionales es mucho más reducido. A pesar de su precio, el hecho de poseer
diferentes sensores hace que las capacidades de procesamiento para la búsqueda de correlaciones entre actividad física y actividad cerebral sea más precisa.
112
Por otro lado, la versatilidad y la facilidad de instalación son
puntos a favor que han favorecido la toma de esta decisión.
En la siguiente imagen se puede observar la diferencia entre
un sistema EEG profesional (izquierda) y el Emotiv EPOC
(derecha).
Sin embargo, la reducción de canales y la poca sujeción presente en los sensores del Emotiv EPOC hacen que la señal
presente un elevado nivel de ruido.
Recientes estudios han demostrado que el cortex motor primario se encuentra dividido en conjuntos de neuronas agrupadas en función de la actividad motora encargada de coordinar. En la siguiente figura se puede ver una ilustración de
esta agrupación.
3 Correlación Actividad Física-Cerebral
En la siguiente figura se muestra la relación entre el movimiento de la mano izquierda y la falta de movimiento de la
misma. En el dominio frecuencial se puede apreciar una variación en las frecuencias correspondientes entre 10 y 20 Hz
respecto a la actividad basal.
Debe notarse que la mayor fluctuación en la actividad eléctrica se produce en el cortex motor primario, asociado al sensor F3 en el mapa del EPOC.
Esta agrupación permite determinar con relativa precisión el
movimiento realizado por el individuo de manera externa. Sin
embargo, la precisión de los aparatos de medición, entre ellos
el Emotiv EPOC empleado en este estudio, no es suficiente
para medir las diferencias de potencial entre las zonas corticales.
Durante este estudio se pretende establecer una relación en el
ámbito frecuencial que permita clasificar grupos de movimiento en función a sus estructuras generales y su cadencia
de repetición. Andar, correr, estar inmóvil o estar sentado son
actividades de alto nivel que sistemas de basados en acelerometría permiten reconocer. Sin embargo, el emplazamiento
de los sensores juego un paper crucial para su reconocimiento. Pero obviando este inconveniente, son sistemas poco
intrusivos que cumplen adecuadamente su cometido.
En cambio, si se pretende dotar al sistema de reconocimiento
de actividades físicas de un mayor nivel de granularidad, los
sensores inerciales no son una buena alternativa para llevarlo
a cabo. Actividades como cocinar, escuchar música o ver la
televisión, difícilmente pueden ser diferenciadas de andar y
estar sentado.
113
Gracias al empleo de señales de electroencefalografía esto se
convierte en una realidad. El reconocimiento de este perfil de
actividades física no sólo es evidente a nivel motor, sino a
nivel emocional mediante variaciones en la actividad del lóbulo frontal.
Desde el punto de vista de la función motora, en el siguiente
mapa de actividad cerebral puede apreciarse como en torno a
los 22Hz la actividad cerebral es evidentemente más alta
cuando se produce un movimiento en la mano izquierda.
Como puede verse en la siguiente figura, ciertas actividades
físicas que no tendrían impacto a nivel inercial, como por
ejemplo hablar con otra persona, pueden ser determinadas
claramente mediante el uso de sensores electroencefalográficos. Concretamente, la actividad cerebral presente en una
persona que ha estado hablando durante más de 20 minutos
es claramente superior en el lóbulo parietal.
3 Trabajos futuros
En el contexto de esta nueva línea de investigación, el principal objetivo es desarrollar un sistema de adquisición de datos
procedentes el Emotiv EPOC empleando OpenVibe y Matlab
como software matemático. Este sistema permitirá obtener
datos procedentes del dispositivo y estudiar la actividad cerebral en el ámbito del reconocimiento de actividades a alto nivel.
En este sentido, existen multitud de trabajos relacionados con
el estudio del movimiento ocular o articular de manera aislada. Sin embargo, en esta línea se pretende evitar el aislamiento de los movimientos y trabajar con ellos, junto con actividad cerebral sensorial, para permitir inferir conjuntos de
actividades de alto nivel.
Por último, es imprescindible identificar características en la
señal cerebral para llevar a cabo la clasificación de las actividades físicas. En este sentido, trabajar en el dominio frecuencial favorece la extracción de características y la discretización de las mismas. El trabajo en el ámbito discreto de la actividad cerebral será uno de los principales objetivos de este
trabajo.
References
Vallabhaneni, A., Wang, T., & He, B. (2005). Brain—
Computer Interface. InNeural Engineering (pp. 85121). Springer US.
Wolpaw, J. R., Birbaumer, N., Heetderks, W. J., McFarland, D. J., Peckham, P. H., Schalk, G., ... &
Vaughan, T. M. (2000). Brain-computer interface
technology: a review of the first international meeting. IEEE transactions on rehabilitation engineering, 8(2), 164-173.
Hill, N. J., Ricci, E., Haider, S., McCane, L. M., Heckman, S., Wolpaw, J. R., & Vaughan, T. M. (2014). A
practical, intuitive brain–computer interface for communicating ‘yes’ or ‘no’by listening. Journal of neural
engineering, 11(3), 035003.
Vala, M. N., & Trivedi, M. K. (2014). Brain Computer Interface: Data Acquisition using non-invasive Emotiv
Epoc Neuroheadset.
Lee, W. T., Nisar, H., Malik, A. S., & Yeap, K. H. (2013,
June). A brain computer interface for smart home
control. In Consumer Electronics (ISCE), 2013 IEEE
17th International Symposium on (pp. 35-36). IEEE.
Muñoz, J., Muñoz, C., & Henao, O. (2014). Diseño de
una estación de trabajo para personas con discapacidad en miembros superiores usando una interfaz
cerebro computador.
Garcia–Molina, G., Tsoneva, T., & Nijholt, A. (2013).
Emotional brain–computer interfaces. International
Journal of Autonomous and Adaptive Communications Systems, 6(1), 9-25.
da Silva, N. A., Maximiano, R., & Ferreira, H. A. (2014,
January). Hybrid Brain Computer Interface Based on
Gaming Technology: An Approach with Emotiv EEG
and Microsoft Kinect. In XIII Mediterranean Conference on Medical and Biological Engineering and
Computing 2013 (pp. 1655-1658). Springer International Publishing.
Li, M., Zhang, Y., Zhang, H., & Hu, H. S. (2013). An
EEG Based Control System for Intelligent Wheelchair. Applied Mechanics and Materials, 300, 15401545.
Doud, A. J. (2013). Motor imagery retraining after stroke
with virtual hands: An immersive sensorimotor
rhythm-based brain-computer interface (Doctoral
dissertation, UNIVERSITY OF MINNESOTA).
114
Zainuddin, B. S., Hussain, Z., & Isa, I. S. (2014, March).
Alpha and beta EEG brainwave signal classification
technique: A conceptual study. In Signal Processing
& its Applications (CSPA), 2014 IEEE 10th International Colloquium on (pp. 233-237). IEEE.
115
Mejorando la interoperabilidad en la Smart City: generación automática de servicios web
José I. Sánchez-Venzalá
Departamento de Lenguajes y
Sistemas Informáticos
Universidad de Sevilla
jisanchez@us.es
A. Fernández-Montes
Departamento de Lenguajes y
Sistemas Informáticos
Universidad de Sevilla
afdez@us.es
Resumen
El concepto de Smart Cities está experimentando
actualmente un tremendo auge. Mundialmente
existen multitud de iniciativas para implementar el
paradigma de ciudad inteligente, que busca mejorar
la vida de las personas que las habitan mediante herramientas TIC.
FI-WARE1 es el proyecto de referencia para Future
Internet en el que se basan numerosas iniciativas de
Smart Cities.
Uno de los problemas comunes en el desarrollo de
las Smart Cities es la publicación de los datos que
en ellas se generan, con objeto de ser explotados
por las distintas aplicaciones siguiendo las líneas
que los gobiernos están impulsando, paradigma
llamado OpenData.
Este artículo busca proporcionar una forma de automatizar mediante tecnología de servicios web el
proceso de publicación y acceso a los datos recogidos por las diferentes fuentes para su explotación.
cotidiana y el Internet of Things está comenzando a ser una
realidad.
En este contexto nace el concepto de Smart City, que persigue mediante TIC mejorar la calidad de vida de las personas
optimizando la interacción entre éstas y el entorno urbano.
Existen multitud de definiciones del concepto Smart City en
la bibliografía:
•
•
•
•
1. Introducción
La tasa de crecimiento de la población mundial y su concentración en el área urbana de las ciudades, impulsa a los gobiernos a buscar soluciones y formas de optimizar la vida en
las mismas.
Por otro lado, la evolución de la tecnología está incrementando las capacidades de procesamiento, de almacenamiento
y de comunicación de los dispositivos, y mejorando la forma en que computadores y personas se relacionan. Los
dispositivos computacionales son ya parte de nuestra vida
1
http://www.fi-ware.org
J.A. Ortega
Departamento de Lenguajes y
Sistemas Informáticos
Universidad de Sevilla
jortega@us.es
El uso de tecnologías computacionales inteligentes
para hacer los componentes críticos de la infraestructura y servicios de la ciudad más inteligentes,
interconectados y eficientes.
Una ciudad que trata de hacerse más eficiente, sostenible, equitativa y habitable.
Una ciudad que monitoriza e integra el estado de
sus infraestructuras críticas, que optimiza sus recursos, que prevé sus actividades de mantenimiento
y que monitoriza los aspectos de seguridad al tiempo que maximiza los servicios para la ciudadanía.
Una ciudad repleta de dispositivos, interconectada
e inteligente. Los dispositivos permiten capturar e
integrar los datos de la vida real mediante sensores
y otros dispositivos. Interconectada se refiere a la
integración de estos datos en plataformas de
computación y la comunicación de ésta mediante
los servicios disponibles por la ciudad. Inteligente
se refiere a la inclusión de análisis complejo, modelado, optimización y visualización de procesos
para optimizar decisiones operacionales.
A partir de estas definiciones, se pueden obtener los conceptos más importes relacionados con las Smart Cities: infraestructura, comunicaciones, computación, información, tecnología, servicios, eficiencia, ciudadanos, sostenibilidad, habitabilidad, calidad de vida, integración, recursos, optimización y accesibilidad.
116
Las Smart Cities se han identificado como uno de los temas
centrales del programa europeo de investigación por su
potencial y su importante contribución a la calidad de vida
de los ciudadanos en los próximos años. La evolución del
paradigma creará también un negocio emergente alrededor
del mismo y producirá un importante impulso en la economía. De acuerdo con Gartner, en 2012 había 143 proyectos
en curso de Smart Cities alrededor del mundo.
El proyecto europeo de Smart Cities, identifica seis dimesiones para medir la inteligencia de la ciudad: economía,
personas, gobierno, movilidad, entorno y habitabilidad.
Sin embargo, debido a la fase temprana en que se encuentra
el paradigma Smart City, los retos son aún numerosos
[Batty, 2012]:
•
•
•
•
•
•
•
Una nueva visión de los problemas urbanos
Métodos efectivos y viables de coordinar las tecnologías urbanas
Modelos y métodos para utilizar la información urbana aprovechando sus escala espacio temporal
Desarrollo de tecnologías de difusión y comunicaciones
Nuevas formas de organización del gobierno urbano
Definición de problemas urbanos, de transporte y
energía
Manejo del riesgo, incertidumbre y amenazas en la
Smart City
El objetivo del presente artículo es describir una forma de
implementar la automatización de la generación de servicios
web que mejore la interoperabilidad entre la recolección de
datos y el consumo de los mismos.
En una arquitectura orientada a servicio para la gestión de
una Smart City, como la propuesta en [Al-Hader et al.,
2009], se busca una planificación y gestión de recursos
eficiente que redunde en mayor calidad de servicio.
La generación automática de servicios web para la explotación de los datos generados por los diferentes dispositivos,
incrementará la interoperabilidad entre los componentes de
la arquitectura facilitando su integración.
Referencias
[Al-Hader et al., 2009] Al-Hader, M., Rodzi, A., Sharif, A.
R., & Ahmad, N. (2009). SOA of Smart City Geospatial Management. 2009 Third UKSim European Symposium on Computer Modeling and Simulation, 6–10.
doi:10.1109/EMS.2009.112
[Batty, 2012] Batty, M., Axhausen, K. W., Giannotti, F.,
Pozdnoukhov, a., Bazzani, a., Wachowicz, M., …
Portugali, Y. (2012). Smart cities of the future. The
European Physical Journal Special Topics, 214(1),
481–518. doi:10.1140/epjst/e2012-01703-3
117
A multidimensional perspective to recommend experts
Germán Sánchez
ESADE-URL
Sant Cugat del Vallès
german.sanchez@esade.edu
Abstract
This works introduces an expertise recommender
system designed for recommending not just the person with the right level of expertise in a certain
set of topics, but also “the right expert”. This is
achieved by extending the dimensions considered
in the recommending process. Apart from the expertise of the candidates, we consider their qualifications, proximity and current availability.
1 Introduction
Recommender systems can help people in organisations to
find people who have some expertise in a specific area. Such
expertise recommender systems (ER) will allow organisations to expand the interaction among users (workers) with
different backgrounds and expertise level, leading to improving creativity in the generated solutions.
In the literature of expertise recommender systems, they
focus on finding the expert with the “right level of expertise”
rather than “the right expert”. The ER described in this work
tries to fill this gap by considering additional information regarding how the candidates interact with the existing system
in the organisation (qualifications), their proximity to the user
and their current availability.
Some of the analysed systems take into account more information than just the expertise of the candidates. However, this
information is not treated in the most effective way: in some
cases, it is just used to filter the recommendations; in other
cases, this information is aggregated by means of a weighted
mean, requiring the user to define a set of parameters. Both
approaches could result in a candidate being prematurely discarded due to one of the considered criteria, while meeting
most of the requirements of the user with high scores.
This work describes a system to recommend people based
on an appropriate mixing and an optimal matching of the
characteristics of the candidates and the preferences of the
user. This is achieved by taking into account simultaneously
not only the expertise of the candidates but other relevant features.
The system allows the user to select the requirements that
best fit his/her interests. The recommendation is based on
the user’s inputted information, and allows him/her to select
among the recommended experts from a generated ranking.
Núria Agell
ESADE–URL
Sant Cugat del Vallès
nuria.agell@esade.edu
2
Architecture
The ER system introduced in this work is a content-based recommendation system based on the definition of candidates’
profiles and the user’s preferences when asking for a recommendation. The user can take advantage of this system to
know who “is good at what” (expertise) while also fulfilling his/her other requirements such as experts’ qualifications,
proximity to the user and current availability. Once the possible experts are selected, the system returns an ordered list
ranked according to the user’s preferences.
As displayed in Figure 1, the ER system can be considered
as an adaptation of the architecture ER-Arch for expertise recommender systems introduced by [McDonald and Ackerman,
2000].
Figure 1: Architecture of the ER introduced
Based on the mentioned architecture, the ER system consists of four modules: profiling, identification, selection and
interaction.
The Profiling module is responsible for building and maintaining profiles to be used in the recommendation process. Therefore, the main responsibility of this module is to translate data collected from the environment in
which the system is embedded into candidates profiles.
The profile of each candidate would be characterised by
four different types of variables:
118
• Expertise variables represent the areas of knowledge of the candidate.
• Qualification variables capture the behaviour of the
candidate while working with the system of the organisation.
• Proximity information is used to measure the distance between the user and the candidate, that is to
say, the ease of contact.
• Availability variable informs about the current
availability of the candidate.
The Identification module builds an initial list of candidates feasible to be recommended.
The Selection module is responsible for analysing and ranking the list of initial candidates. This module consists of
the following tasks:
• Assessing each candidate according to the user’s requirements.
• Aggregating the assessments into an overall degree.
• Ranking and selecting candidates.
The Interaction module provides the user with the necessary tools to define the recommendation requirements.
3
Conclusion
The system introduced in this work focuses on finding “the
right person” that will provide the used not only with the right
level of expertise but also with the right fit of his/her needs.
The ER presented performs this task by requesting the minimum number of inputs to the user, i.e., reinforcing the usability of the system. Ultimately, this approach will enhance
the collaborative work between perhaps previously unknown
parties in the organisation and therefore will improve the creativity of the obtained solution.
References
[McDonald and Ackerman, 2000] David W. McDonald and
Mark S. Ackerman. Expertise recommender: a flexible
recommendation system and architecture. In Proceedings
of the 2000 ACM conference on Computer supported cooperative work, pages 231–240. ACM, 2000.
119
Incorporating biomedical knowledge into m-Health applications: An example
public-private partnership
Josep Vehi and Remei Calm
Institut d’Informàtica i Aplicacions, Universitat de Girona,
Campus de Montilivi, Edifici P-IV, Girona
Josep.vehi@udg.edu
Remei.calm@udg.edu
Abstract
In this paper a proposal to include biomedical
knowledge into m-health applications for Diabetes
Management is depicted. This article describes the
collaboration between MICELab Research Group
at the University of Girona and Social Diabetes.
Integrated personalized computer models are used
for personalized health status monitoring and prediction, assisting in the day-to-day management of
diabetes and promoting a healthy lifestyle.
1 Introduction
M-health has become the paradigm in personalized
health care, especially for chronic diseases. In the case of
diabetes, m-health applications are the best solution to promote self-management of the disease by patients. Decision
support tools, personalized prediction and prevention, risk
assesment tools, training tools and the social capabilities are
necessary components of any application of m-health. Social Diabetes is an example of m-health application that
incorporates many of these features. However, for the effective use of m-healths application in the health care system, it
is necessary to incorporate more biomedical knowledge in
them. Collaboration between MICELab group at the University of Girona and Social Diabetes aims to turn the Social
Diabetes application on a standard for personal health systems for diabetics.
A patient-oriented system needs not only to: (i) provide an
early estimate of individual risk, and (ii) assist in the-day-today management of diabetes, but also (iii) to calculate the
risk of diabetic complications for the individual, and the comorbidities at a time, and (iv) to suggest effective, personalized preventive and protective measures.
3
M-health applications for diabetes management.
One of the main gaps for the development of m-health
applications (and for any Personal Health Systems), is the
infusion of biomedical knowledge into m-health applications: i) m-health apps are not integrated with clinical evidence, biomedical and genetic information; ii) Data from
uncontrolled conditions in need of validation; and iii) mhealth apps not integrated with clinical guidelines and pathways.
In our proposal, physiological and epidemiological models will be integrated into the m-health application, incorporating clinical evidence and biomedical information. Data
from controlled experiments will be used to validate and
update the physiological models. Important clinical issues
will be addressed through modeling, i.e.: the reduction of the
impact of hypoglycemia and an increased awareness for the
patient of the implications of lifestyle in long-term complications. This will be done through the development of tools for
short-term hypoglycemia risk assessment and prevention,
prediction of mid-term glycemic control outcomes and longterm complications assessment.
2 Needs in Diabetes Management
There is a growing body of evidence for the need for an
individualized approach to diabetes treatment. Contributions
from systems engineering to what it has been coined “systems medicine” has made possible the development of systemic individualized models used for therapy optimization,
hypoglycemia prediction or closed-loop glycemic control
(artificial pancreas), among other applications, bridging the
gap to relevant clinical issues.
4
Integrated personalized models
The key component of such system is an individualized
integrated model of a T1DM patient, with prediction capabilities at different time scales. Target predicted clinical outcomes comprise hypoglycemia risk (short-term), measures of
glycemic control (mid-term) and risk of developing complications, both micro- and macro-vascular (long-term). This is
addressed through the integration of different modeling tech-
120
nologies at different levels: i) probabilistic models are used
to describe patient lifestyle or behavior; ii) physiological
models describe glucose-insulin regulatory system; and iii)
epidemiological models are used to assess the long-term risk
of complications and co-morbidities.
In the short term, physiological models are able to deal
with intra-patient variability employing interval model technology, providing consistent inputs for the hypoglycemia
risk prediction module. Lifestyle/behavior models provide
probabilistic mid-term scenarios to be simulated using the
glucose-insulin model. The glycemic control prediction
module uses the results of these mid-term simulations to
predict mid-term outcomes: A1c, glucose variability, number
of hypoglycemia events, etc. The output of the physiological
model and the glycemic control model together with other
patient-specific data will be inputs to the epidemiological
complications model.
Acknowledgments
Research supported by the Spanish Ministry of Science and
Innovation under grant DPI2010-20764-C02.
121
Using an improved rule match algorithm for the detection of broken driving rules in
an energy-efficient and safety relevant driving system
Emre Yay, Natividad Martínez Madrid1
Juan Antonio Ortega Ramírez²
1
Reutlingen University
School of Informatics
Alteburgstr. 150, 72762 Reutlingen, Germany
{emre.yay, natividad.martinez}@reutlingen-university.de
2
University of Seville
Department of Languages and Computer Systems
Av. Reina Mercedes s/n, 41012 Seville, Spain
jortega@us.es
Abstract
The individual driving behaviour has the opportunity to
improve the energy-efficiency and safety of a car. So far,
the vehicles were improved to save energy and to increase the safety mainly by optimising the engine and the
power train. In this paper, an improved rule match algorithm is introduced, which is used in the expert system
of human-centred driving system. The goal of the driving
system, which is in development, is to optimise the driving behaviour in terms of energy-efficiency and safety
by giving recommendations to the driver. The improved
rule match algorithm is used to check the incoming information about the car, driver and the environment
against the driving rules to recognise any breakings of a
driving rule. The information is gained by monitoring the
car, the driver and the environment using in-vehicle sensors and serial-bus systems. On the basis of the detected
broken driving rules, the driving system will create individual recommendations, which will allow eliminating
bad driving habits, while considering the driver needs.
1
Introduction
The protection of the environment and saving energy became fundamental for society and politics [1]. Thus, several
laws were enacted to reduce the greenhouse gas emissions
and to increase the energy-efficiency. Furthermore, the increasing number of drivers and vehicles on the road leaded to
more accidents and fatalities on the road [2]. According to [3]
the driving behaviour has a great impact on safety and on the
energy consumption of the car. Thus, adapted driving can
save energy up to 30% [4]-[6] and can increase the road
safety.
On the basis of these facts a driving system is introduced
briefly in this work, which is currently under development.
The goal of the driving system is to optimise the driving behaviour of the driver in energy-efficiency and safety by giving recommendations to the driver. It is possible to fulfil the
energy-efficiency and safety potential of adapted driving
when the driver adheres the energy-efficiency and safety relevant driving recommendations.
There are already driving systems trying to optimise the
driving behaviour in the terms of energy-efficiency or safety
[7]-[8]. However, these driving systems cover either the area
of energy-efficiency or safety. In contrast to these systems,
the driving system introduced in this paper will try to improve
the driving behaviour in terms of energy-efficiency and
safety. Furthermore, it adapts itself to the individual driving
behaviour by creating a driving profile of the driver. This allows to create recommendations based on any negative
change of the driving behaviour or the driver condition. In
addition, the acceptance of the driving system could be increased, as the driving system will show only useful recommendations to the driver. The first prototype of the driving
system will be developed on the basis of a driving system.
The second prototype will be connected to a real car, to test
the driving system in a real environment.
The following chapter gives a brief overview over energyefficient or safety relevant driving systems. Chapter 3 shows
the architecture of the driving system. The rule match algorithm used to detect broken driving rules is introduced and
evaluated in the chapters 4 and 5 respectively. Finally, a conclusion of this work and a forecast about the future work are
given in chapter 6.
122
2
Related Work
There are already driving systems trying to increase the
driving behaviour in terms of energy-efficiency or safety by
giving recommendations to the driver. The driving system
ANESA [9] is trying to reduce the energy consumption of the
car through freewheeling. This approach saves up to 13%
when the drivers followed the instructions of the driving system on time. However, freewheeling is only one aspect of energy-efficient driving, therefore the energy-savings could be
increased more using driving rules mentioned for example in
[6].
Another driving system [10] is trying to educate the driver
in eco-driving by giving advices to eliminate bad driving habits. It runs on a mobile phone and is based on the interaction
between the mobile phone and the car. The needed information for generating the recommendations are gathered using the internet connection of the mobile device and the diagnostic port of the car. However, the internet connection of the
mobile device may not be available during the whole journey,
why it is not guaranteed that the driving system is able to
gather all needed data for further processing. Additionally,
the driving system does adapt itself to the individual driving
behaviour of the driver.
The driving system of Kia [7] tries to increase the energyefficiency by indicating an energy-efficient driving behaviour using two different coloured lamps, which mean energyefficient driving and stand-by of the driving system or normal
fuel consumption of the vehicle. However, the driving system
shows neither the wrongdoings of the driver nor gives driving
recommendations to the driver. This would allow to eliminate
the bad driving habits of the driver, which are the main cause
of an inefficient driving behaviour.
The positive effect of an energy-efficient driving behaviour is that it supports safety, as it prevents aggressive driving, which is the main cause of accidents [4].
Besides the driving systems with the focus on energy-efficiency, there are also driving system with respect to safety.
DAISY [11] monitors the driver, the current driving situation
and the driver condition to be able to create warnings in dangerous situations. However, DAISY shows only warnings
when an dangerous situation is detected, for example situations which are susceptible for distractions, instead of trying
to improve the driving behaviour in terms of safety or eliminating the bad driving habits, which might have caused the
dangerous driving situation.
Another driving system with the focus on safety is DriveDiagnostics [8], which tries to educate the driver in terms of
safety. It monitors and analyses the car movement to indicate
the trip safety. DriveDiagnositcs consists of two feedback
systems: a real-time and an online feedback system. The realtime feedback warns the driver when his current driving behaviour does not match his typical driving behaviour or when
an aggressive driving behaviour is detected. In contrast, the
offline feedback shows the average trip safety to the driver
after the journey based on the recorded data during the journey. However, the safety could be increased more by monitoring additionally the driver condition. This would allow the
detection of uncommon driver conditions like fatigue using a
tracking system [12] or drowsiness by using vital sensors
[13]. Thus, the condition of the driver could be another factor
for detecting dangerous driving situations.
The presented driving systems cover either the area of energy-efficiency or safety. Furthermore, they do not consider
the individual driving behaviour or the condition of the
driver. In contrast, the driving system described in this work
adapts itself to the individual driving behaviour and considers
the driver condition. Furthermore, it tries to improve the driving behaviour in the areas of energy-efficiency and safety.
This allows the creation of individual driving recommendations in terms of energy-efficiency and safety, while considering the driver needs.
3
Architecture of the Driving System
Figure 1: An excerpt of the driving system's architecture
The driving system described in this paper is based on the
multi-tier architecture shown in Fig. 1. The driving system
has three main components, which are described in the following:
 The Data Layer is responsible for collecting all relevant data from the car, the environment and the driver.
It is connected to the in-car serial-bus systems to receive information about the car, to vital sensors for
monitoring the driver and to other sensors, which are
relevant for gathering information about the environment, like the weather condition. On the basis of the
collected information a driving profile is generated,
which describes the typical driving behaviour of the
driver. Furthermore, the Data Layer administrates and
stores all relevant information for further processing.
 The information stored and administrated in the Data
Layer is used in the Processing Layer to analyse the
driving behaviour. Therefore, it first predicts the car
state using the stored data in the Data Layer. On the
basis of the prediction and the data stored in the Data
Layer it checks if a driving rule is broken. Finally, it
generates on the basis of the detected broken driving
123
rule and the driving profile individual recommendations, which guide the driver to drive energy-efficient
and safe.
 The main purpose of the Graphical Layer is the rendering of the graphical user interface on the in-vehicle
display unit. Furthermore, it is responsible for showing
the generated recommendations to the driver using for
example the graphical user interface or an acoustic signal. It provides also the opportunity to configure the
driving profile by choosing the areas that the driver
wants to be improved like energy-efficiency, safety or
both areas.
In the following the Data Layer is described briefly. As the
main focus of this paper is the process of the recommendation
creation, especially the rule matching algorithm, the Processing Layer will be described in detail.
3.1 Data Layer
The Data Layer is responsible for gathering all needed information from the car, the driver and the environment.
Therefore, it is connected to the in-vehicle serial-bus systems
and to different sensors. In the first prototype the Controller
Area Network (CAN) serial-bus system is used to gather the
information about the car. An ear sensor is used to monitor
the pulse of the driver, which allows to calculate the heartrate coherence. It can be used to indicate drowsiness [14] and
stress [15] of the driver. As the environment of the car influences the energy-efficient and safe driving, for example the
weather condition, different sensors are connected to the Data
Layer for measuring these influences.
On the basis of the incoming data, a driving profile is generated to represent the typical driving behaviour of the driver.
However, the driving profile has to be updated until it has
enough data to represent the typical driving behaviour. The
gathered data are stored in the working memory, which is
placed in the Short Term Knowledge Base. The Mid Term
Knowledge Base consists of the driving profile. Finally, the
Long Term Knowledge Base stores information about the car,
like mileage, and the driving rules.
3.2 Processing Layer
The Processing Layer is responsible for analysing the driving behaviour in terms of energy-efficient and safe driving.
On the basis of the result of the analysis, the individual driving behaviour and the reaction of the driver to already given
recommendations the Processing Layer generates the driving
recommendations. The analysis of the driving behaviour is
done in the Rule Selector module. The Recommendations Inference Engine of the Processing Layer decides whether to
generate a recommendation and show it to the driver or not.
Moreover, the driving system tries to give an early feedback
to the driver why the state of the car is predicted in the Prediction Engine module using the Autoregressive-Moving Average algorithm [16]. This allows to show the recommendations to the driver on time, why the driver has enough time to
avoid the breaking of the rule. All relevant information that
is needed in the Processing Layer is gathered from the Data
Layer, respectively from the Short-, Mid- and Long Term
Knowledge Base.
In the following the modules Rule Selector and Recommendations Inference Engine will be described in detail. If
the reader is interested in the Prediction Engine module of the
driving system, the reader is encouraged to read [17].
3.2.1 Rule Selector
The Rule Selector module is responsible for the detection
of any broken driving rules, deviations from the typical driving behaviour and any uncommon driver condition, for example stress, anger and so on. Therefore, it compares the
gathered data from the Short Term Knowledge Base and the
predicted data against the driving rules and the driving profile
using a rule match algorithm. On detection of any broken
rule, deviation from the typical driving behaviour or an uncommon driver condition the recognised irregularity and the
corresponding data is put in to the Broken Rules Queue for
further processing. The Broken Rules Queue stores all detected irregularities and the data which caused the irregularity. The rule match algorithm used to analyse the current driving behaviour is described in chapter 4.
3.2.2 Recommendations Inference Engine
The Recommendations Inference Engine decides if it is
necessary show a recommendation to the driver. This allows
to increase the acceptance of the driving system by avoiding
the bothering of the driver by showing the driver recommendations which are not relevant in the mind of the driver. To
achieve this, the Recommendations Inference Engine first
gets an irregularity from the Broken Rules Queue and checks
the corresponding information against the driver profile,
which stores the already given recommendations and the past
reaction of the driver to them. The reaction to the already
given recommendations are calculated during the next cycles
after showing the recommendation. During the cycles, the
changes of the values that are relevant for a specific recommendation are analysed. If the changes are positive the driving system can assume that the driver adhered the recommendation. However, as the driver needs some time until the
driver is able to notice and to react to a recommendation, the
analysis of the reaction to a recommendation will be started
after a certain time.
The following example shows the explained approach. After giving the recommendation “to shift the gear to the next,
to keen the engine speed down” the Recommendations Inference Engine first waits until it starts the analysis of the driver
reaction. After a certain time, the Recommendations Inference Engine monitors the gear during the next cycles and
checks if the driver has shifted the gear. If a higher gear is
recognised the Recommendations Inference Engine will assume that the driver adhered the given recommendation. In
contrast, if no higher gear is noticed, the Recommendations
Inference Engine will show the same recommendation after a
124
Figure 2: The networks of the different algorithms: (1) Rete, (2) Treat, (3) Leaps and (4) the improved rule match algorithm
certain time again. In case of a repeated ignorance of that recommendation, the Recommendations Inference Engine will
decrease the generation frequency of that recommendation.
This allows the driving system to adapt itself to the individual
driving behaviour whereby the driver is not bothered by
showing the same recommendation. Furthermore, the acceptance of the driving system can be increased, as recommendations, which are not relevant in the mind of the driver,
are not showed.
4
Rule matching algorithm
The rule matching algorithm is used in the Rule Selector
module, explained in chapter 3.2.1, to detect the breaking of
driving rules, deviations from the normal driving behaviour
or an uncommon driver condition. There are already several
rule match algorithms whose goal is to compare rules against
a certain data set such as Rete, Treat and Leaps. In case of the
presented driving system the rules used in the rule match algorithms represent the rules for the detection of broken driving rules, the rules to detect deviations from the typical driving behaviour and the rules for the detection of uncommon
driver conditions. A rule used in a rule match algorithm consists of conditions and consequences. A condition in the driving rule to shift as soon as possible would be “current rpm <
2500 rpm” and “gear < 6th gear”, whereby the consequence
of that rule would be “shift up the gear” to keep the engine
speed down, when the driver is not driving at the highest gear.
The Rete algorithm [18] is using a tree structured network to
represent the rules, also called Rete network. Figure 2 (1) illustrates the Rete network of the rule to shift as soon as possible. A Rete network consists of alpha and beta nodes. Each
alpha node represents one condition of a rule, whereby a beta
node represents the intermediate relation of the alpha nodes.
For example the condition “current rpm < 2500 rpm” is represented by one alpha node. The beta node in our example
represents the relation of the alpha nodes “current rpm > 2500
rpm” and “gear < 6th gear”. The alpha and beta nodes consists
of a memory, which is used to store a copy of the data that
matched the node conditions. Thus, when the data set of
changes, the data within the Rete network has to be updated.
This is done by the Rete network by deleting the old data
stored in the node memories and adding the new data, which
matched the node conditions, into the node memories. If all
node conditions are satisfied, the rule is put into the conflict
set, which consists of all rules whose conditions are satisfied.
The conflict set is resolved and thus the consequence of the
rule is fired according to the conflict set resolution strategy,
which the user has to define, for example first come, first
served.
The Treat algorithm [19] is the evolution of Rete. The major
difference of Treat is that is does not use beta nodes to represent the intermediate relation of the alpha nodes, see Figure
2 (2). Instead, the relations of the alpha nodes are calculated
when they are needed. In the example in Figure 2 (2) the relation of the alpha nodes A and B are recomputed, when the
incoming data satisfied the condition of the nodes A and B.
If the result of the computation is positive, the rule is put into
the conflict set, where it waits for its activation according to
the conflict set resolution strategy. According to Miranker
[19] Treat is more effective than Rete as it needs less
memory, due to the missing beta nodes, and as it requires
fewer comparisons until the data is bind to the corresponding
node. Furthermore, the Treat algorithm does not compute the
alpha and beta nodes during the deletion of old data from the
node memories, as it manipulates the alpha nodes and the
conflict set directly. However, according to the evaluation results of Nayak et. al [20] the Rete algorithm outperforms
Treat in most cases, especially when it is used in static structures, as Rete saves intermediate relations instead of recomputing them. The difference in the results can be explained as
Nayak et al. used different metrics than Miranker, who
125
Figure 3: The result of the evaluation using the rules (1) shift as soon as possible at the latest by 2500 rpm,
(2) do not exceed the speed limit and (3) keep enough distance to the preceding car
counted only the number of comparisons, which may not “reflect the intrinsic differences between the match algorithms”
[20].
The Leaps algorithm [21], see Figure 2 (3), is based on the
Treat algorithm, why it is using alpha nodes for representing
the rule conditions and computes the intermediate relations
of the alpha nodes when required. The extension of the Leaps
algorithm is the lazy evaluation of the rules and the combination of the conflict set resolution strategy with the rule matching process. This allows to increase the firing rates of the rule
consequences and thus the decreasing of the execution time.
Figure 2 (4) shows the network of the improved rule match
algorithm, which contains of two alpha nodes, which point to
the corresponding value in the data set, and one beta node.
The approach of the improved rule match algorithm allows a
faster processing of the rule matching as it does not have to
update the data of every node of after every change of the
data set, which is inefficient for the driving system. Another
advantage of the algorithm is that the memory usage of the
improved rule match algorithm is less, as the alpha nodes
store only pointers to the data instead of storing the value itself.
The basis for the improved rule match algorithm is the Rete
algorithm, as Treat is outperformed by the Rete algorithm
[20]. Furthermore, the Leaps algorithm combines the rule
matching with the conflict set resolution why it can be neglected as the driving system is using the Recommendations
Inference Engine to solve the conflict set, respectively the
Broken Rules Queue.
The data set used in the Rule Selector module consists of information about the current driving behaviour. These information are stored in tuples, which are defined by the name of
the information and the corresponding value, for example
“current rpm : 3000”. The amount of the stored tuples are not
changing during the journey, instead they are gained at the
beginning of the journey from the car, the driver and the environment. After the first gathering of the tuples, the values
of the information are updated during the journey in the frequency of 100 Hertz. Thus, the usage of the original Rete algorithm in the presented driving system would cause massive
delete and write operations to keep the Rete network up to
date. To solve this issue, the Rete algorithm has been modified, so that the alpha nodes are getting a pointer to the corresponding tuples during the initialisation of the Rete network. Thus, after the update of the values in the tuples, the
Rule Selector module initiates the checking of the alpha node
conditions. If a condition of an alpha node is satisfied, the
result is stored in a logical value and is passed to the corresponding beta node. The result of the alpha nodes are stored
in the beta nodes using a logical value, as well. This allows
to avoid the storage of the values within the node memories.
5
Evaluation & Results
The evaluation of the improved rule match algorithm was
done by using a recorded eight minute journey on a driving
simulator. The recorded journey consisted of information
about the car like car speed, revolutions per minute and so on.
On the basis of the recorded journey, we evaluated the improved rule match algorithm and the Rete algorithm using
three different driving rules:
1. Shift as soon as possible at the latest by 2500 rpm
2. Do not exceed the speed limit
3. Keep enough distance to the preceding car
To measure the efficiency of the algorithms we used counted
the accesses to the node memories and the comparisons of the
data updated in the node memories. During the first measurement, both algorithms were initialised using the first driving
rule, which was used in Chapter 4 as an example. After the
initialisation the networks of both algorithms had the same
structure as in Figure 2 (4) and Figure 2 (1) with two alpha
nodes and one beta node. The networks of the algorithms consisted of only one alpha node and no beta node during measurement of the second and third driving rule, as these rules
have only one condition.
As shown in the result in Figure 3, the improved rule match
algorithm outperforms the Rete algorithm, as it needed fewer
comparisons of the node conditions and fewer accesses to the
node memories. During the eight minute journey, the improved rule match algorithm had only two accesses to the
126
node memories to keep the nodes up to date, as it passes only
a pointer to the nodes, which point to the corresponding value
in the data set. In contrast, the Rete algorithm needed more
accesses to the alpha and beta node memories, in which it removed the old and added the new data, which satisfied the
node condition. Furthermore, the Rete algorithm needed
more comparisons of the data against the different node conditions as the improved match algorithm. The improved rule
match algorithm needed about 14 times less data comparisons
against the node conditions of the third driving rule “do not
exceed the speed limit”.
In summary, the Rete algorithm needed more comparisons
and more accesses than the improved rule match algorithm.
The difference of the performance is the effect of passing a
pointer to the nodes and signalling to check the node conditions when the data set is updated instead of passing every
updated value to the network. The approach of the improved
rule match algorithm saves comparisons and accesses to the
node memories as the nodes get only pointers to the values in
the nodes, which are relevant for their comparison. However,
the Rete algorithm passes all changed values in the tuples to
the network, which then has to check first if the incoming
value is relevant for the node and then if the node condition
is satisfied by the new arriving value. Thus, the usage of the
Rete algorithm is inefficient for the usage in the presented
driving system, as it gathers the data frequent from the car,
the driver and the environment, which would lead to a frequent recomputation of the alpha and beta nodes.
6
Conclusion & Further Work
In this paper an improved rule match algorithm was introduced, which is used in an energy-efficiency and safety relevant driving system to detect broken driving rules and deviations from the typical driving behaviour. On the basis of the
detected broken driving rules and deviations from the typical
driving behaviour, the driving system creates recommendations, which help eliminating bad driving habits which
caused the breaking of the driving rule or the deviation from
the typical driving behaviour.
The rule match algorithm introduced in this paper is based on
the Rete algorithm. However, the major difference is saving
a pointer to the relevant data within the node memory instead
of saving the data itself, which satisfied the node condition.
This change of the algorithm is the main reason why the performance of the improved rule match algorithm is better in
the evaluated environment. In Rete the matching of a frequent
changing data set involves a frequent recalculation of the alpha and beta nodes, while the improved rule match algorithm
is able to access the updated data using the pointer stored in
the nodes.
The improved rule match algorithm has to be evaluated also
against the Treat algorithm, as the Treat algorithm does not
use beta nodes to improve the performance. Furthermore,
since the Recommendations Inference Engine decides if a
recommendation should be shown to the driver or not, it has
to be figured out, which algorithm fits the needs of the Recommendations Inference Engine. As the development of the
driving system is still in progress, a user friendly concept has
to be worked out, according to the usability guidelines for human-machine interfaces for in-vehicle systems [22] and the
recommendations have to be displayed in a noticeable way
without distracting the driver.
References
[1] Mehmet Yay, Elektromobilität, Lang, Peter GmbH, 2010
[2] German Statistical Office, Verkehr – Verkehrsunfälle,
Wiesbaden, Germany, 2011
[3] Fan Xiaoqiu, Ji Jinzhang, Zhang Guoqiang, Impact of
Driving Behavior on the traffic safety of Highway Intersection, Third ICMTSA, 2011
[4] N. Haworth, M. Symmons, Driving to Reduce Fuel Consumption and Improve Road Safety, Australian Transport
Council; 2001
[5] H. Helms, U. Lambrecht, J. Hanusch, Energieeffizienz im
Verkehr; In Energieeffizient, Publisher Martin Pehnt;
Springer; 2010
[6] J. Van Mierlo, G. Maggetto, E. Van de Burgwal, R.
Gense, Driving style and traffic measures – influence on
vehicle emissions and fuel consumption, In Proceedings
Institution of Mechanical Engineers Vol. 218 Part D: Automobile Engineering, 2004
[7] Kia Website, Eco Driving System,
http://kia-buzz.com/?p=252, Last visit: 24.09.2014
[8] Tsippy Lotan, Tomer Toledo, An In-Vehicle Data Recorder for Evaluation of Driving Behavior and Safety,
Transportation Research Board of the National Academies, 2006
[9] T. Bär, R. Kohlhaas, J. Zöllner, K.-U. Scholl, Anticipatory
Driving Assistance for Energy Efficient Driving, ISTS,
Vienna; 2011
[10] Corcoba Magana, V; Munoz Organero, M, Artemisa,
Using an Android device as an Eco-Driving assistant,
Cyber Journals: Multidisciplinary Journals in Science and
Technology, Journal of Selected Areas in Mechatronics(JMTC), June Edition, 2011
[11] Reiner Onken, DAISY, an Adaptive, Knowledge-based
Driver Monitoring and Warning System, Vehicle Navigation & Information Systems Conference Proceedings,
1994
[12] H. Singh; Mr. J.S Bhatia; Mrs. Jasbir Kaur, Eye Tracking
based Driver Fatigue Monitoring and Warning System,
IICPE, India, 2010
[13] Arun Sahayadhas, Kenneth Sundaraj, Murugappan
Murugappen, Detecting Driver Drowsiness Based on Sensors: A Review, Sensors Vol.12 Issue 12, Basel, Switzerland, 2012
[14] H. Shin, S. Jung, J. Kim, W. Chung, Real Time Car
Driver’s Condition Monitoring System, IEEE SENSORS
2010 Conf., 2010
127
[15] M. Kumar, M. Weippert, R. Vilbrandt, S. Kreuzfeld, Regina Stoll, Fuzzy Evaluation of Heart Rate Signals for
Mental Stress Assessment, IEEE Transactions on Fuzzy
Systems, Vol. 15, No. 5, 2007
[16] Peter J. Brockwell, Richard A. Davis, Introduction to
Time Series and Forecasting, Springer, 2002
[17] Emre Yay, Natividad Martínez Madrid, SEEDrive: An
Adaptive and Rule Based Driving System, 9th Internation
Conference on Intelligent Environments, 2013
[18] Charles L. Forgy, Rete: A Fast Algorithm for the Many
Pattern/Many Object Pattern Match Problem, Expert
Systems, 1990
[19] Daniel P. Miranker, TREAT: A Better Match Algorithm
for AI Production Systems, AAAI'87 Proceedings, 1987
[20] Pandurang Nayak, Anoop Gupta, Paul Rosenbloom,
Comparison of the Rete and Treat Production Matchers
for Soar (A Summary), AAAI, Pages 693-698, 1988
[21] Daniel P. Miranker, David A. Brant, Bernie Lofasso, David Gadbois, On the Performance of Lazy Matching in
Production Systems,AAAI-90 Proceedings, 1990
[22] European Commission, Commission Recommendation
on safe and efficient in-vehicle information and communication systems: update of the European Statement of
Principles on human machine interface, Official Journal
of the European; 2007
XVI Jornadas de ARCA
Author Index
Agell, Nuria
Angulo, Cecilio
Álvarez de La Concepción, Miguel Ángel
Álvarez-Garcı́a, Juan Antonio
Bernabé-Sánchez, Iván
Calm, Remei
Campos Lucena, Marı́a Soledad
Corcoba Magaña, Vı́ctor
Cuadrado-Cordero, Ismael
Cueto, Alfonso
Dı́az-Sánchez, Daniel
Falomir, Zoe
Fernández, Damián
Fernández-Montes, Alejandro
González-Abril, Luis
Lillo-Fantova, Lucı́a
Martı́nez Madrid, Natividad
Mast, Vivien
Museros, Lledó
Muñoz, Diego
Muñoz-Organero, Mario
Márquez Vázquez, José Manuel
Ortega, Juan Antonio
Raya, Cristóbal
Ruiz, Francisco J.
Salord, Lluı́s
Samà, Albert
Sanz Dı́az, M Teresa
Sanz, Ismael
Soria Morillo, Luis Miguel
Sánchez Venzalá, José Ignacio
Sánchez-Hernández, Germán
Téllez, Ricardo A.
Vale, Daniel
Vehi, Josep
Velasco Morente, Francisco
Velasco, Manel
Yay, Emre
Yñiguez Ovando, Rocı́o
128
99, 117
73, 85, 105
1
1, 55, 111
5
119
11, 47
49
111
55
5
57, 69
67
67, 115
57, 67, 69, 79, 91
73
121
57
57, 69, 79
85
5, 49
91
67, 91, 111, 115, 121
99
99
105
99
11, 47
69, 79
1, 55, 111
115
117
73
57
119
11, 47, 91
73, 85, 105
121
11, 47