jarca 2014 - Universidad de Sevilla
Transcription
jarca 2014 - Universidad de Sevilla
JARCA 2014 Actas de las XVI Jornadas de ARCA Sistemas Cualitativos y sus Aplicaciones en Diagnosis, Robótica e Inteligencia Ambiental Cádiz 22-‐28 de junio de 2014 Alejandro Fernández-‐Montes Juan Antonio Álvarez Juan Antonio Ortega XVI Jornadas de ARCA XVI Jornadas de ARCA XVI Jornadas de ARCA i Actas de las XVI Jornadas de ARCA Sistemas Cualitativos y sus Aplicaciones en Diagnosis, Robótica e Inteligencia Ambiental Proceedings of the XVI ARCA Days Qualitative Systems and its Applications in Diagnose, Robotics and Ambient Intelligence Editado por / Edited by Alejandro Fernández-Montes Departamento de Lenguajes y Sistemas Informáticos Universidad de Sevilla, España Juan Antonio Álvarez Departamento de Lenguajes y Sistemas Informáticos Universidad de Sevilla, España y / and Juan Antonio Ortega Departamento de Lenguajes y Sistemas Informáticos Universidad de Sevilla, España ii Actas de las XVI Jornadas de ARCA. Sistemas Cualitativos y sus Aplicaciones en Diagnosis, Robótica e Inteligencia Ambiental / Alejandro Fernández-Montes, Juan Antonio Álvarez, Juan Antonio Ortega. ISBN: 978-84-606-6085-9 I. II. III. Alejandro Fernández-Montes Juan Antonio Álvarez Juan Antonio Ortega. Edita: © Derechos de autor De los textos: los autores correspondientes De las ilustraciones: los autores correspondientes De esta edición: Alejandro Fernández-Montes, Juan Antonio Álvarez, Juan Antonio Ortega. Junio 2014. ISBN: 978-84-606-6085-9 No está permitida la reproducción total o parcial de este libro, ni su transmisión de ninguna forma o por cualquier medio, ya sea electrónico, por registro u otros métodos sin el permiso previo y por escrito de los titulares del copyright. iii Director de las Jornadas Juan Antonio Ortega, Universidad de Sevilla Comité Organizador Alejandro Fernández-Montes, Universidad de Sevilla Juan Antonio Álvarez, Universidad de Sevilla Comité de programa Núria Agell, Universidad Ramon Llull Cecilio Angulo, Universitat Politécnica de Catalunya Joaquim Armengol, Universitat de Girona Andreu Català, Universitat Politécnica de Catalunya Zoe Falomir, Universität Bremen Alejandro Fernández-Montes, Universidad de Sevilla Luis González, Universidad de Sevilla Natividad Martínez, Reutlingen University Quim Meléndez, Universitat de Girona Lledó Museros, Universitat Jaume I Juan Antonio Ortega, Universidad de Sevilla Francisco Ruiz, Universitat Politécnica de Catalunya Ismael Sanz, Universitat Jaume I Ralf Seepold, Universität Konstanz Miguel Toro, Universidad de Sevilla Jesús Torres, Universidad de Sevilla Josep Vehí, Universitat de Girona Francisco Velasco, Universidad de Sevilla Juan Antonio Álvarez García, Universidad de Sevilla XVI Jornadas de ARCA iv Preface This volume contains the papers presented at JARCA 2014: XVI Jornadas de ARCA Sistemas Cualitativos y sus Aplicaciones en Diagnosis, Robótica e Inteligencia Ambiental held on June 22-28, 2014 in Cadiz. There were 20 accepted papers. Each submission was reviewed by at least 3, and on the average 2.2, program committee members. This proceedings are partially supported by the projects of the Spanish Ministry of Economy and Competitiveness HERMES (TIN2013-46801-C4-1-R) and Simon(TIC8052) of the Andalusian Regional Ministry of Economy, Innovation and Science and with the cooperation of Fidetia (Fundación para la Investigación y el Desarrollo de las Tecnologías de la Información en Andalucía). Easychair was used to manage paper submissions, reviewing and generating the proceedings. Cádiz, junio de 2014 Alejandro Fernández-Montes Juan Antonio Álvarez Juan Antonio Ortega Ediciones Anteriores Sevilla 1998 Sevilla 2000 Valladolid 2001 Vilanova i la Geltrú 2002 Lanzarote 2003 Menorca 2004 Benalmádena 2005 Peñíscola y Castellón de la Plana 2006 Girona 2007 Tenerife 2008 Granada 2009 Mallorca 2010 Huelva 2011 Salou 2012 Murcia 2013 v XVI Jornadas de ARCA vi XVI Jornadas de ARCA Index Generación de dataset flexible para de reconocimiento de actividades y caı́das . . . . . . . . . . . . 1 Juan Antonio Álvarez-Garcı́a, Luis Miguel Soria Morillo and Miguel Ángel Álvarez de La Concepción La Nube y su Papel como Plataforma de Distribución de Contenidos de TV . . . . . . . . . . . . . . Iván Bernabé-Sánchez, Daniel Dı́az-Sánchez and Mario Muñoz-Organero 5 Los Sistemas Sanitarios Autonómicos de España: Un estudio de la eficiencia operacional, eficiencia sanitaria y eficiencia unificada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 Marı́a Soledad Campos Lucena, M Teresa Sanz Dı́az, Francisco Velasco Morente and Rocı́o Yñiguez Ovando Un análisis de la eficiencia de la UE 27 a través de la huella de carbono con DEA. . . . . . . . . 47 Marı́a Soledad Campos Lucena, M Teresa Sanz Dı́az, Francisco Velasco Morente and Rocı́o Yñiguez Ovando Eco-driving: Energy Saving based on driver behavior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 Vı́ctor Corcoba Magaña and Mario Muñoz-Organero La formación a través de dispositivos móviles. Diseño y evaluación de contenidos y actividades formativas a través de m-learning. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 Alfonso Cueto, Luis Miguel Soria Morillo and Juan Antonio Álvarez-Garcı́a Towards a Fuzzy Colour Model Sensitive to the Context . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 Zoe Falomir, Vivien Mast, Daniel Vale, Lledó Museros and Luis González-Abril Es eficiente apagar máquinas en un centro de datos?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 Damián Fernández, Alejandro Fernández-Montes, Luis González-Abril and Juan Antonio Ortega Introducción de una nueva caracteristica en el modelo Qualitative Shape . . . . . . . . . . . . . . . . . 69 Luis González-Abril, Lledó Museros, Zoe Falomir and Ismael Sanz Conectando el Robot AIBO a ROS: Extracción de imágenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 Lucı́a Lillo-Fantova, Ricardo A. Téllez, Manel Velasco and Cecilio Angulo Qualitative Simulation of a Sentiment Analysis Theory . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 Ismael Sanz, Lledó Museros and Luis González-Abril Sincronización de Robots Aibo. Un Estudio Comparativo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 Diego Muñoz, Manel Velasco and Cecilio Angulo Ideas para la aplicación de la optimización por colonia de hormigas al desarrollo sostenible y eficiencia energética . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 José Manuel Márquez Vázquez, Juan Antonio Ortega, Luis González-Abril and Francisco Velasco Morente Creativity Support System for cake design. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 Francisco J. Ruiz, Cristóbal Raya, Albert Samà and Nuria Agell Equilibrio del Robot Aibo usando DMPs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 Lluı́s Salord, Cecilio Angulo and Manel Velasco vii XVI Jornadas de ARCA Brain-physical activity mapping using low cost EEG sensors . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 Luis Miguel Soria Morillo, Juan Antonio Álvarez-Garcı́a, Ismael Cuadrado-Cordero and Juan Antonio Ortega Mejorando la interoperabilidad en la Smart City: generación automática de servicios web . 115 José Ignacio Sánchez Venzalá, Alejandro Fernández-Montes and Juan Antonio Ortega A multidimensional perspective to recommend experts. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 Germán Sánchez-Hernández and Nuria Agell Incorporating biomedical knowledge into m-Health applications: An example public-private partnership . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 Josep Vehi and Remei Calm Using an improved rule match algorithm for the detection of broken driving rules in an energy-efficient and safety relevant driving system . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 Emre Yay, Natividad Martı́nez Madrid and Juan Antonio Ortega viii XVI Jornadas de ARCA ix XVI Jornadas de ARCA x 1 Generación de dataset flexible para de reconocimiento de actividades y caídas Juan A. Álvarez-García, Luis M. Soria Morillo, Miguel Á. Álvarez de la Concepción University of Seville Computer Languages and Systems Dept. Avenida Reina Mercedes S/N, 41012 {jaalvarez, lsoria, maalvarez}@us.es Abstract El reconocimiento de actividades (RA) y la detección de caídas (DC) son áreas de investigación que evolucionan de manera aislada en vez de en conjunto. La evaluación del software que lo permite depende tanto del hardware utilizado como del tipo de caídas y actividades evaluadas provocando múltiples datasets heterogéneos. Además en DC el problema se agrava por no existir datasets de caídas reales, no simuladas, públicos. En este trabajo se plantea una herramienta para recuperar datos y generar un dataset abierto a la comunidad tanto para su acceso como para la inserción de nuevos datos. 1 Introduction Las tendencias demográficas en nuestra sociedad están llevando al envejecimiento de la población tanto en los países desarrollados como en los del tercer mundo y en vías de desarrollo. Según la UNFPA [5] aunque actualmente sólo Japón tiene una proporción de mayores de 65 años superior al 30%, en 2050 habrá 64 países que lo acompañen. Eso ha supuesto que se fomenten programas de investigación orientados a las tecnologías de la información para el mejorar la calidad de vida y permitir la vida independiente de mayores y personas con algún tipo de discapacidad [1]. Para conseguir ese objetivo existen dos áreas importantes, el reconocimiento de actividades (RA) y la detección de caídas (DC). El RA tiene como objetivo reconocer actividades humanas que pueden ser básicas (tumbado, sentado, de pié, etc.) o complejas (viendo la televisión, cocinando, duchándose, etc.). Recuperar la secuencia de actividades realizadas así como el tiempo dedicado a cada una de ellas permitiría ofrecer a personas mayores que viven solas ayuda robótica, informes detallados a familiares o doctores sobre ejercicios de rehabilitación o prevención o consejos personales para llegar a objetivos saludables físicos (cierto número de pasos al día) o de organización (debes ver algo menos la televisión o recuerda ir a comprar al supermercado). La DC puede definirse como una tecnología asistencial cuyo objetivo es el de alertar cuando ocurre una caída. En un escenario real puede mitigar sus consecuencias. Tiene un impacto directo sobre el miedo a las caídas ya que permite una rápida asistencia. Los individuos que caen desarrollan un temor además de una reducción de la actividad física, depresiones y reducción de la actividad social y todo esto puede incrementar a su vez el riesgo de que se produzcan más caídas [6]. A pesar de que las caídas son un gran problema en la salud pública y que el número de sistemas de DC ha aumentado mucho, según la organización mundial de la salud [8] el número de caídas se incrementa año tras año. Si no se toman medidas el número de lesiones provocadas por caídas se proyectan a un 100% mayor en 2030. En este contexto los dispositivos asistenciales son una necesidad social y están siendo investigados de manera activa. El resto del artículo se organiza de la siguiente manera: la Sección 2 muestra como los sistemas de RA están siendo evaluados y comparados entre sí, la Sección 3 hace lo propio con los sistemas DC. La herramienta propuesta para generar un dataset flexible y mantenido por la comunidad científica se presenta en la Sección 4 y en el último apartado se indican las conclusiones. 2 Evaluación de RA El RA utilizando sensores vestibles [9] permite la monitorización de ejercicios y actividades o incluso la detección de comportamiento anómalo. Desde el punto de vista de datasets, el RA es un área madura, existen múltiples datasets en el repositorio de UCI. Sin embargo, la variabilidad en el uso de hardware y sobre todo en la posición de los sensores hace que no todos los datasets sean válidos para todos los sistemas propuestos y la comparación entre diferentes sistemas no sea posible. Existen dos líneas para intentar solventarlo: • Competiciones basadas en software con un elevado número de sensores tal y como se hizo en OPPORTUNITY [10]. Aún con esa cantidad de hardware, no todos los sistemas utilizan ese mismo hardware con lo que lo que se pueden validar son los algoritmos pero no los sistemas completos. • Competiciones basadas en software y hardware, de tipo presencial donde lo fundamental es el objetivo final. Estas competiciones como EvAAL (Evaluating AAL Systems through Competitive Benchmarking) 2 [2]. Aunque los sistemas pueden compararse, es difícil conseguir un número elevado de competidores por los costes que acarrea el desplazamiento de personas y hardware. 3 Evaluación de DC En el área de DC los datasets son un problema importante ya que no existen datasets públicos con información de caídas reales. Aún así aquellos que contienen caídas simuladas también escasean. Según Schwickert et al. [7] de los 96 estudios que analizan desde 1998 a 2012, sólo 6 incorporan caídas reales. Las cuestiones de privacidad y el análisis de la DC desde un punto de vista biomédico provocan esta falta de datasets. Además según el trabajo de Bagalà et al. [3] los algoritmos publicados que son testados con caídas simuladas tienen una sensibilidad y especificidad mucho mejores que cuando se hacen con caídas reales. 4 Herramienta propuesta Las dificultades que suponen acceder a un grupo de alto riesgo de caídas, informar desde un punto de vista médico de los resultados (protocolo admitido por un comité ético manteniendo la privacidad del paciente y que este firme un consentimiento informado) y conseguir un dataset con un número elevado de caídas nos llevó a plantear un dataset de RA y DC, abierto a la comunidad y mantenido por la misma. Para ello tenemos un trabajo en progreso en el que estamos diseñando una herramienta que permite la recuperación de información de los sensores inerciales de dispositivos móviles Android (giroscopio, acelerómetro, magnetómetro) con la restricción de que estos dispositivos tengan conexión bluetooth. Estos móviles servirán de sensores vestibles y enviarán toda la información a otro móvil que sincronizará tramas de ambos y subirá la información al dataset. Además estamos considerando la posibilidad de incluir vídeo de grabación que permita el etiquetado posterior de las actividades o tipos de caídas que se hayan producido, aunque esto supondrá seguramente problemas de privacidad. La Figura 1 muestra de forma esquemática el proceso. Ese proceso permitirá que diferentes investigadores puedan seguir un proceso sencillo y fácilmente replicable de sus experiencias para incorporar los datos al dataset. Además la interfaz Web permitirá que los investigadores seleccionen las restricciones que se deseen con respecto a la posición de los sensores o la frecuencia de muestreo para testar sus algoritmos antes de implementar el sistema hardware completo. Un ejemplo puede ser la descarga de un dataset personalizado con datos de sensores en la rodilla y la cabeza con una frecuencia de muestreo de 20 Hertzios. Ilustración 1: Esquema de la herramienta de recuperación de datos y subida al dataset 5 Conclusiones Las dificultades que suponen la evaluación combinada de RA y DC nos hizo plantearnos una herramienta que permitiese generar un dataset que pudiese ser mantenido por la comunidad científica. Las mayores dificultades para tener éxito son la sencillez de uso de una herramienta que permitiese subir la información a un repositorio Web y las restricciones de hardware. Para solventar la primera se ha desarrollado un prototipo que estamos probando actualmente, el segundo obstáculo lo intentamos superar incluyendo como hardware los dispositivos más vendidos de la electrónica de consumo, móviles con sistema operativo Android. Una vez la fase de test de la herramienta se supere nos encontraremos con otras dificultades como el etiquetado semiautomático de las actividades y caídas para mejorar la usabilidad de la herramienta, la posibilidad de incluir un vídeo de la persona monitorizada y la preparación de un consentimiento informado en la aplicación para aquellos investigadores y personas que participen. Agradecimientos Este trabajo ha sido parcialmente financiado por el proyecto de Excelencia de la Junta de Andalucía SIMON (TIC-8052) y por el proyecto del Ministerio HERMES (TIN201346801-C) Referencias 1. 2. 3. AAL Joint Programme. Catalogue for Projects 2013. Retrieved May 4, 2014, from AAL-Europe: http://www.aal-europe.eu/wpcontent/uploads/2013/09/AALCatalogue2013_Final.pdf Álvarez-García, J. A., Barsocchi, P., Chessa, S., & Salvi, D. (2013). Evaluation of localization and activity recognition systems for ambient assisted living: The experience of the 2012 EvAAL competition. Journal of Ambient Intelligence and Smart Environments, 5(1), 119-132. Bagalà F, Becker C, Cappello A, Chiari L, Aminian K, et al. (2012) Evaluation of Accelerometer-Based Fall Detection Algorithms on Real-World Falls. PLoS ONE 7(5): e37062. doi:10.1371/journal.pone.0037062 3 4. Bourke, A. K., Van de Ven, P., Gamble, M., O’Connor, R., Murphy, K., Bogan, E., ... & Nelson, J. (2010). Evaluation of waist-mounted tri-axial accelerometer based fall-detection algorithms during scripted and continuous unscripted activities. Journal of biomechanics, 43(15), 3051-3057. 5. United Nations Population Fund and Help Age International. (2012). Ageing in the twenty-first century: a celebration and a challenge. 6. Legters, K. (2002). Fear of falling. Physical therapy, 82(3), 264272. 7. Schwickert, L., Becker, C., Lindemann, U., Maréchal, C., Bourke, A., Chiari, L., ... & Klenk, J. (2013). Fall detection with body-worn sensors. Zeitschrift für Gerontologie und Geriatrie, 46(8), 706-719. 8. World Health Organization. Ageing, & Life Course Unit. (2008). WHO global report on falls prevention in older age. World Health Organization. 9. Lara, O. D., & Labrador, M. A. (2013). A survey on human activity recognition using wearable sensors. Communications Surveys & Tutorials, IEEE, 15(3), 1192-1209. 10. Roggen, D.; Calatroni, A.; Rossi, M.; Holleczek, T.; Forster, K.; Troster, G.; Lukowicz, P.; Bannach, D.; Pirkl, G.; Ferscha, A.; Doppler, J.; Holzmann, C.; Kurz, M.; Holl, G.; Chavarriaga, R.; Sagha, H.; Bayati, H.; Creatura, M.; del R Millan, J., "Collecting complex activity datasets in highly rich networked sensor environments," Networked Sensing Systems (INSS), 2010 Seventh International Conference on , vol., no., pp.233,240, 15-18 June 2010 XVI Jornadas de ARCA 4 5 ! 0 " #$ % #! " #$ & & ' #( ) 0 ' $$$ / " . 12 34566 ! 7 8 , +/ .9$.- ,% $8 : ;< 1 "# . ( $/, ! "# $% ! & "# "# ) ' & ( ' & & ( & + - " ! "# ) ) "# +, ! "# & ) " "# ) "# * +, . "# "# "# , $% 6 ( & 3 "# & "# 1 "# = > "# @ $% & ( ? A ) * % % + - D . ) ) B & ( % 7 @ / $ ) ) %' $ ! ) , "# @ @ / "# , $ & ( & + ?4C , ( + 3261 A?C - & ) E ! E ! ! "# ! & E 7 & J H% K 3261I ) H% K 3261I ! 35C J % ( ) ! H E 0 3263I H E 3266I ) ! "# # . 0 . ) / ) $ 0 . ( & ) "# E . & FG + HF - 3263I "# $% "# "# 0 3261I HL . "# , , HG 3263I ( #/ "# H8 3263I * ) 8 ( # N" H! % 0", ' ' 3263I ( $%"# ' , D D " ' 8 E K +''D8- +,"DH# K 1 3263I 0 ' 0 F + & "# , ) & 0 9 "# ' FG +,"D & HM & 3266I ( % J & H7 HM 3263I 3261I 3266I HF 3266I . H/ HD 3263I . ) "# ! + ) - ! ) ( ( ! 8 . G, 8 ) ! 9 ' 0 ( 55C +,! ' + F ' ) , ' ) . ,! ) ! ) ! " OF 9/ , ,/ 9" .9$# 9O "$83261 =?426 '= 3 9 % 8 $P.P$ / ' ) ( / ' + @ . +@ . 9-- $9 8 +%" 3263 621? 1A2222- 'J/$88 +$%" 3263 2441 =122229 / .$,, +$%" 3263 2443 =12222$88% '"J ) @ ) %$ %$ H E K # 2 ! "# ' , ) H 3266I # 9 R S ' GM,F%,- 3266 $ ?1AU?=6 E 3263I # R M 9 K SJ E M 9 $%"# G K ' E Q ' K # 7 # T ' +$8@J'J/ 3266 # 7 K # # 9 $%"# T ' , 8 E K +'J/,8 ",- 3263 @ $ ' 3263 6U62 HD 3266I R D J D D 7 S"# D B E $ "# T / " +' /"- 3266 6= $"7 ' 3266 6U> 10 H7 HF HF HM HM H! 3266I M , 7 , 8 ' " D ' % , 7 , K S ' D , % / 9 T 8 7 / , " +87/ ,"3266 > $ ' 3266 65U3= 3263I 8 F F @ E / / K 9 * K , 8 S$ "# T 8 E KD $ , +8D ,- 3263 6> $ ' 3263 4A1U4A4 3263I M F S" @ ' D T % $ 622 6156U615= 3263 3266I $ M / M 7 / K " / / # S' , F " T 3266 3263I R M ' FE % K * ! S $%"# E / 9 T ' " +$' '"3263 6= $ ' 3263 6655U632= 3263I M F ! . F M 7 " D K SG # $%"#T 3263 H/ 3261I # / . , D +$'' D " $ 125 H8 3263I G 8 , / K / L D . , S' E K T ' VV - 3261 $'' D 3261 $ ' 3261 12AU Q % S' T ' 3263 H% K ' D 3263 $ $ ' , 1A3U1A> 3261I 9 % K , ! . 7 S, ' ' " $ B , T $ ' ' , 8 E K " 3261 H# K 3263I / # K 8 " " / # / S ="#B ."# T ' +$'' - 3263 $ $ ' 3263 =1AU=14 HG 3263I * G L L ' G L ! @ ' ! S' / #B ' / , "# T 3263 HL 7 J 3261I / L S' F "# $ " / $ E K T D , D +D/,D3261 / 3261 $ 6U? , $ 11 LOS SISTEMAS SANITARIOS AUTONÓMICOS DE ESPAÑA: UN ESTUDIO DE LA EFICIENCIA OPERACIONAL, EFICIENCIA SANITARIA Y EFICIENCIA UNIFICADA Campos Lucena, María Soledad Departamento de Contabilidad y Economía Financiera mscampos@us.es Sanz Díaz, Mª Teresa Departamento de Análisis Económico y Economía Política mtsanz@us.es Velasco Morente, Francisco Departamento de Economía Aplicada I velasco@us.es Yñiguez Ovando, Rocío Departamento de Análisis Económico y Economía Política ovando@us.es Universidad de Sevilla RESUMEN El estudio de la eficiencia en la gestión de los recursos públicos en general y de los recursos invertidos en sanidad en particular es de sumo interés para el desarrollo de las políticas económicas de un país en cualquier momento, pero se hace más acuciante en momentos de crisis como los actuales, donde los recursos son si cabe aún más escasos y la intervención pública se pone en entredicho. Este trabajo realiza un análisis de la eficiencia de dicha gestión a través de la técnica DEA y utiliza un enfoque no orientado, en el que se persigue alcanzar la eficiencia a través del incremento de las variables consideradas deseables (good) para lo que se utiliza la eficiencia operacional, la disminución de las variables no deseables (bad) para lo que se utiliza la eficiencia sanitaria y pone en relación ambas eficiencias a través de la llamada eficiencia unificada que plantea la existencia de dos fronteras hacia donde deben tender las unidades ineficientes. La aportación fundamental que se hace con este trabajo, se basa explicar la relación que existe entre la mejora de ineficiencias operacional y sanitaria cuando el estudio se hace de forma unificada. Se establecen cuatro niveles de relación entre los diferentes tipos de eficiencias e ineficiencias de las organizaciones que dan lugar a los ajustes necesarios para situar las entidades en las fronteras marcadas por las funciones de producción de las entidades eficientes. Palabras Clave: Sistema sanitario, eficiencia operacional, eficiencia sanitaria, eficiencia unificada. 1. INTRODUCCIÓN Tras la gestión de los recursos públicos subyace un sistema organizativo que se basa en el carácter limitativo de los recursos. Las necesidades que puede satisfacer el sector público pueden llegar a ser ilimitadas, no así lo son los recursos con los que cuenta para llevarlas a cabo, por lo que debe modular su uso en función de unos criterios de 1 12 priorización de necesidades y gestionar los recursos con los que cuenta de la forma más eficaz y eficiente que le sea posible. Desde la llegada de la democracia a España en 1976, este país sufrió una transformación radical en su desarrollo económico, político y social. Dentro de esa transformación, se puede encuadrar la priorización en la prestación de determinados servicios considerados básicos para el desarrollo equilibrado de una sociedad desarrollada. Entre esos servicios se encuentran la sanidad y la educación, para cuyo desarrollo, se utilizó la propia división territorial y política por la que se optó para el buen desarrollo del proyecto democrático de país que salió de la transición española. Este modelo territorial divide España en diecisiete Comunidades Autónomas (en adelante CA), y dos Ciudades Autónomas. Como podemos observar en el Mapa I de las diecisiete CAs quince se encuentra en la Península Ibérica y dos son archipiélagos. Uno de ellos, a pesar de que se muestre por cuestiones de espacio en la esquina inferior derecha del mapa, realmente se encuentra en el Océano Atlántico, próximo a las costas africanas, frente a Marruecos y el Sahara Occidental. Las dos ciudades autónomas se encuentran en el norte de África. Estas autonomías han asumido de forma paulatina, en unos casos a más velocidad que otras, numerosas funciones que tradicionalmente asumía de forma centralizada el estado, entre ellas las relativas a la salud, por entender que la cercanía a los ciudadanos mejora el conocimiento de sus necesidades y la gestión directa que debe realizar de los recursos. Cada CA tiene su propio servicio de salud, el cual gestiona los recursos destinados a sanidad de forma autónoma, de la forma que cree más conveniente en aras a la consecución de sus objetivos. Esta descentralización está siendo cuestionada en estos momentos de crisis, entre un sector que defiende que los recursos se utilizan de forma más eficiente si se centralizan, ya que de otra forma el sistema se vuelve insostenible desde el punto de vista económico, y otro sector que defiende que los servicios se prestan mejor desde la cercanía a los ciudadanos, lo que permite un mejor conocimiento de las necesidades de los mismos, repercute en la equidad del acceso a los servicios públicos y reduce las desigualdades sociales. 2 13 Mapa I: División territorial de España: Comunidades y Ciudades Autónomas. El objetivo que persigue este trabajo es estudiar la eficiencia de los servicios sanitarios autonómicos en España, a través de la gestión de los recursos públicos invertidos en ellos por habitante protegido, fundamentalmente con el uso que hace de ellos bien a través de conciertos con empresas privadas, de formación de personal residente o de la propia atención directa que realiza a los usuarios del servicio sanitario, este último compuesto por el gasto de farmacéutico, la remuneración del personal y los consumos intermedios, necesarios para prestar el servicio sanitario correspondiente, y como repercute todo ello en la esperanza de vida al nacer y en la tasa de mortalidad general ajustada por edad, por cada 100.000 habitantes. La elección de estas variables inputs se debe a los importantes debates abiertos en la actualidad sobre la conveniencia o no de externalizar o privatizar los servicios, así como sobre la necesidad de invertir en formación e investigación, en una época de crisis como la actual. El uso eficiente de los recursos en general y de los recursos públicos en particular, debe ser una de las premisas básicas en economía, donde los bienes son escasos y susceptibles de usos alternativos. El estudio de la eficiencia según González et al (2010) puede llevarse a cabo desde dos perspectivas distintas: a) utilizando indicadores de gestión basados en el análisis de ratios, lo que puede llevar a resultados contradictorios en función de los indicadores utilizados (Smith y Goddard, 2003) y b) utilizando índices globales de eficiencia que miden las distancias de las unidades analizadas a la frontera de producción marcada por las unidades eficientes en función de los recursos utilizados y los resultados obtenidos. Dentro de esta última perspectiva se encuentra el Análisis Envolvente de Datos (DEA), modelo que está considerado como un buen sistema de medición de la eficiencia del sector público (Lowell y Muñiz, 2003), y que cuenta con la ventaja de poder incluir en el estudio varias variables inputs y/o outputs. Este modelo surgió como extensión del trabajo de Farrel (1957) en el que se muestra una medida de la eficiencia productiva y su cálculo (Coelli, 1996, Coll y Blasco, 2006 y Cooper et al., 2007). La aplicación del DEA proporciona las distancias de las unidades ineficientes hasta la frontera marcada por las funciones de producción de las unidades eficientes. 3 14 Habitualmente, la técnica de análisis DEA precisa una orientación hacia las variables controladas, ya sean los inputs o los outputs, lo que da lugar a los modelos inputs-orientado u output-orientado (Ramanathan 2003), al entender que las medidas correctoras que se proponen por el modelo deben aplicarse sobre las variables controladas, aunque es habitual que se recomienden ajustes tendentes a influir sobre las variables no controladas. Recientemente, los estudios que aplican la técnica DEA, para medir la eficiencia de los sistemas de producción, están optando por la aplicación de un modelo DEA no orientado, donde la distinción se realiza en función de las variables inputs u outputs consideradas deseables (good) o no-deseables (bad) (Sueyoshi y Goto, 2011). Tras esta introducción se ha llevado a cabo una exposición del DEA, como técnica de estudio de las eficiencias de un grupo de organizaciones a la hora de evaluar el uso de los recursos utilizados para conseguir unos niveles adecuados de resultados. Este análisis se desglosa en el estudio de la técnica en general y posteriormente se analizan los diferentes tipos de eficiencia operacional, sanitaria y unificada. A continuación se realiza una descripción de la metodología y de los datos utilizados, y se lleva a cabo una aplicación práctica del estudio de las eficiencias de los sistemas sanitarios de las CAs en. Por último se extraen una serie de conclusiones a partir de la aplicación práctica del modelo. 2. DESCRIPCIÓN DE LOS DATOS Y METODOLOGÍA Una revisión de la literatura reciente, muestra el estudio de la eficiencia en el uso de los recursos por parte de las organizaciones a través a través del DEA (Campos y Velasco, 2013; González et al, 2010). Esta aplicación tradicional del estudio de la eficiencia, enfoca el análisis hacia una orientación input u output en función de las variables sobre las que la organización tenga capacidad de influencia, de forma que se utiliza un modelo input-orientado cuando las variables controladas sean los inputs, u output-orientado cuando las variables controladas sean los outputs. Para ello se puede aplicar el procedimiento multietápico de Coelli (1996, 1998), que generaliza otros procedimientos, tales como el bietápico (Alí y Seiford, 1993) y el método en tres etapas (Cooper et al., 2007) y que se adecua a la eficiencia de Koopmans (1951). Recientemente, el estudio de la eficiencia ha dado un paso más, al diferenciar entre aquellas variables que sean deseables o recomendables (good), y aquellas que son nodeseables o no-recomendables (bad), en definitiva diferencia aquellas cuyo incremento mejora la eficiencia de otras que actúan justo al contrario, la mejora de la eficiencia se produce cuando se reduce su uso en el caso de los inputs o producción en el caso de los outputs (Sueyoshi and Goto, 2011). A través de este tipo de estudio se calculan tres tipos de eficiencia. La primera asociada a las variables deseables. Se trata de la llamada eficiencia operacional y está relacionada con la estructura operativa de las organizaciones. La segunda de las eficiencias, está relacionada con las variables no-deseables, es la llamada eficiencia sanitaria, y marca el efecto del entorno sobre el uso eficiente de los recursos. En estos dos casos, se considera que ambas eficiencias son independientes, de forma que sólo se estudia la variabilidad o influencia que pueda tener la organización sobre las variables deseables en el primer caso o no-deseables en el segundo. La tercera de las eficiencias es la eficiencia unificada, que realiza un estudio conjunto de ambas eficiencias, y nos proporciona un análisis global del uso de los recursos por parte de las organizaciones. En este último tipo de eficiencia, se parte de la idea de que cuando una organización utiliza unos recursos, produce tanto outputs deseables (good) como outputs nodeseables (bad), por lo que para mejorar la eficiencia tiene que incrementar los primeros y disminuir los segundos a la vez que mantiene, disminuye o incluso incrementa los 4 15 inputs. Por ello, en este último caso, se establecen dos fronteras marcadas por las funciones de producción de las entidades eficientes, una superior a la que deben tender los inputs y los outputs deseables, y otra inferior a la que deben tender los inputs y los outputs no-deseables. En este trabajo, se realiza un análisis de la eficiencia del uso de los recursos públicos sanitarios que gestionan los servicios sanitarios de las Comunidades y Ciudades Autónomas de España, y su efecto sobre la vida de los ciudadanos. Para ello, se ha utilizado la base de datos de Indicadores Clave del Sistema Nacional de Salud (INCLASNS, 2012) publicados por el Ministerio de Sanidad Servicios Sociales e Igualdad del Gobierno de España. Como dijimos al principio, las necesidades de los ciudadanos pueden llegar a ser ilimitadas, sin embargo, la disponibilidad presupuestaria limita los servicios que las administraciones públicas pueden suministrar a la hora de cumplir con la función social que se les tenga encomendada. La gestión pública, a diferencia de la gestión empresarial, parte del volumen de recursos con los que cuenta y decide en que, y para que, van a ser utilizados (en el caso de las empresas se parte de una demanda del mercado y en base a ella se estipulan los gastos en los que hay que incurrir para satisfacerla). Por todo lo anterior, se han utilizado como variables Inputs, en primer lugar el gasto sanitario público territorializado por habitante protegido (Input 1), así como el uso que se decide hacer de esos recursos al considerar qué parte de dichos recursos se destina a conciertos con empresas privadas (Input 2), qué parte a formación de residentes (Input 3) y qué parte a la atención pública directa a los ciudadanos (Input 4), donde se incluyen tanto el gasto farmacéutico, las remuneraciones de personal y los consumos intermedios como principales componentes que absorben la inversión sanitaria que se hace por parte de la administración pública en los ciudadanos. Como variables Outputs se han utilizado dos indicadores reconocidos como de calidad por la Organización Mundial de la Salud, la esperanza de vida al nacer, cuyo incremento supone una mejora en la eficiencia de uso de los recursos (Output 1-Good) y la tasa de mortalidad general ajustada por edad por cada 100.000 habitantes, cuya disminución supone, de igual forma, la mejora de la eficiencia de uso de los recursos (Output 2-Bad). Asociado al estudio de la eficiencia, se encuentra la variabilidad creciente, decreciente o constante de los outputs asociada a la variación de los inputs. En el caso de las variables deseables (good), se habla de tasa de rendimiento a escala o RTS. Esta magnitud muestra la variación mayor, menor o de igual proporción que sufre la variable output cuando se produce una variación de los inputs, e indica la conveniencia o no de incrementar el tamaño operacional de la organización. Por ejemplo, cuando RTS es creciente, se considera que el aumento de inputs utilizados, es decir, el tamaño operacional, da lugar a un aumento más que proporcional de los outputs-good, por lo que las grandes organizaciones superan a las pequeñas en rendimiento operacional, y por tanto, el aumento del tamaño o del volumen de operaciones (o de recursos utilizados) permite alcanzar la eficiencia operacional. Cuando se trate de RTS constante se recomienda el mantenimiento del tamaño y cuando sea decreciente se recomienda reducir el tamaño. En el caso de las variables no-deseables (bad) se habla de tasa de daños a escala (DTS) que refleja la variabilidad de los outputs-bad, asociada a la variación de los inputs. En este caso el efecto creciente, decreciente o constante sobre los outputs es similar al RTS, sin embargo, el efecto sobre las medidas a tomar serán las opuestas, es decir, cuando se 5 16 trabaja con factores de producción que operan a escala DTS creciente, el aumento de los inputs provoca un aumento más que proporcional en los outputs-bad. Si tenemos en cuenta que estos output son no-deseables, y el incremento del tamaño operacional perjudica el alcance de la eficiencia sanitaria, por lo que se recomienda la disminución de los inputs utilizados. En el caso de que DTS sea constate o decreciente, no se recomienda pero si se acepta, mantener o aumentar respectivamente el tamaño operacional o cantidad de inputs utilizados. 3. ANALISIS ENVOLVENTE DE DATOS El DEA es una aproximación gerencial para evaluar la actuación operativa de varias unidades pertenecientes tanto al sector público como al privado, y está considerado como uno de los métodos de gestión más populares. Dicha popularidad puede ser contrastada en el artículo de Emrouznejad et al. (2008), el cual resume contribuciones previas al análisis envolvente de datos. Por otro lado, el artículo de Glover y Sueyoshi (2009) describe la historia del DEA desde las contribuciones del profesor William W. Cooper, colaborador fundamental de esta técnica de análisis. Finalmente, Ijiri y Sueyoshi (2010) describen el transfondo filosófico sobre la contabilidad y la economía que se convirtieron en el eje fundamental del DEA. Para responder a cuestiones relacionadas con el medio ambiente, han sido muchas las publicaciones que emplearon métodos de investigación operativa para obtener evidencias analíticas al respecto. Ejemplo de ello son los trabajos de Cooper et al. (1996) y Zhou et al. (2008). La contribución esencial al DEA en los estudios de medioambiente fue encontrar el método para separar un output en outputs deseables o good y outputs no-deseables o bad, ya que la producción de los sectores (público y privado) puede ser no-deseable en ocasiones. Al separar los outputs en variables positivas y negativas, se puede medir la eficiencia operacional de los outputs deseables y la eficiencia sanitaria de los outputs no-deseables. Sin embargo, nos encontramos una dificultad relacionada con esta separación; es decir, tenemos que averiguar cómo combinar los dos tipos de outputs para poder emplearlos en un análisis unificado. Los trabajos previos utilizaban el DEA para un uso limitado en la valoración medioambiental, aunque el DEA tenga una alta capacidad de investigación para la protección del medio ambiente. Entre los trabajos previos, podemos destacar a Sueyoshi et al. (2010) y Sueyoshi y Goto (2010a) que propusieron un nuevo método de combinación para medir la eficiencia operacional, la eficiencia ambiental y la eficiencia unificada en las plantas térmicas de carbón estadounidenses, en el que recomendaron al Gobierno Federal que desarrollara una “Ley de Aire Limpio” para controlar las emisiones de dióxido de carbono, ya que consideraban a dicho gas como una de los principales fuentes del calentamiento global y el cambio climático. Con estos estudios investigaron la implicación política mediante dos estructuras de datos diferentes y dos aproximaciones analíticas, usando la nueva metodología unificada. Por otra parte, el trabajo de Sueyoshi y Goto (2011) comparó la nueva combinación unitaria con otras aproximaciones unificadas desde la perspectiva de la valoración medioambiental: en su publicación, discutieron la importancia de la clasificación de los inputs en variables energéticas y no energéticas dentro de los estudios de medioambiente. Por ello, es apropiado distinguir entre outputs deseables y no-deseables. Por último, el trabajo de Sueyoshi y Goto (2010b), considerado una extensión de aquél, discutía la importancia de la SCSS (siglas en inglés de “Condición de Holgura Complementaria Fuerte”) en valoración medioambiental. El estudio concluye que las empresas manufactureras japonesas buscaban en primer lugar la eficiencia operacional para 6 17 la acumulación de capital, y entonces se centraban hacia la eficiencia medioambiental. Las preferencias empresariales eran éstas a pesar de la considerable presión del gobierno japonés por la protección ambiental tras la firma del Protocolo de Kyoto. a. Medidas de eficiencia operacional y sanitaria En este trabajo se toma como modelo DEA inicial el modelo RAM (siglas en inglés de “Medida de Rango Ajustado”), propuesto por Cooper et al. (2000) porque es un modelo de eficiencia basado en holguras y por lo tanto, pueden unificarse fácilmente ambas eficiencias, operacional y sanitaria. La característica metodológica es importante para la eficiencia sanitaria, ya que los modelos DEA convencionales presentan dificultad para unificarlos. Para mayor información, consultar Sueyoshi y Goto (2011), que proporciona una descripción detallada de las dificultades metodológicas en el uso de modelos DEA radiales para la valoración de la eficiencia relacionada con las variables no-deseables. Se va a revisar la medición de la eficiencia operacional empleando el modelo RAM. Aplicando el modelo RAM para una valoración del rendimiento unificado, consideramos “n” unidades de toma de decisiones. La unidad j-esima (con j=1,…, n) emplea un vector columna de inputs (Xj) con el fin de producir no solo un vector columna de outputs deseables (Gj), sino también un vector columna de outputs no-deseables (Bj), en el que Xj=(x1j, x2j, …, xmj)T, Gj=(g1j, g2j, …, gsj)T y Bj=(b1j, b2j, …, bhj)T. El superíndice “T” significa vector transpuesto y se asume que Xj>0, Gj>0 y Bj>0 para todo j=1,…, n. Se evalúa la eficiencia operacional de la unidad organizativa específica “k” mediante el siguiente modelo RAM input-output deseables (de ahora en adelante, “Modelo 1”): a. Modelo Operacional Maximizar sujeto a (i=1,…, m), (r=1,…, s), (j=1,…,n), (i=1,…,m) y . En este modelo, es un vector columna de variables desconocidas (normalmente nos referimos a ellas como variables “estructurales” o “intensivas”) que son empleadas para unir los vectores input y output mediante una combinación convexa. (i=1,…,m) y son variables de holgura relacionadas con los inputs y los outputs deseables, respectivamente. Los rangos en el Modelo 1 son determinados mediante los límites superior e inferior de los inputs y los de los outputs deseables. Los límites superiores se representan por = ( )y = ( ). Los límites inferiores se representan por = ( ) y ( ). Por tanto, los rangos del modelo se convierten en El valor de la eficiencia operacional de la unidad “k” viene dada por: =1–( + ), indicando el superíndice (*) el óptimo. La ecuación dentro del paréntesis nos informa acerca de la valoración de la ineficiencia operacional. 7 18 Figura 1: Proyecciones para alcanzar la eficiencia operacional. Fuente: Sueyoshi y Goto (2010c) La figura 1 muestra una descripción visual de la estructura analítica del Modelo 1. Se pone especial énfasis en el input “i” y el output deseable “r” de la unidad k-esima. La unidad organizativa es ineficiente por lo que necesita aumentar su eficiencia operacional aumentando la cantidad de output deseable producido y/o reducir la cantidad de output indeseable. Una dirección para posibles proyecciones puede observarse en el punto B. La línea de contorno ABC indica la frontera de eficiencia para el output deseable en la que el punto K puede proyectarse. La dirección de tales proyecciones debería expresarse mediante el signo de las holguras de los inputs relacionados y las holguras de los outputs deseables en el Modelo 1. Para finalizar, hay que mencionar varios problemas acerca del gráfico: Las posibles proyecciones en el Modelo son dirigidas en un espacio de datos con múltiples inputs y outputs buenos ya que tiene efectos positivos en sus signos y , efectos negativos en sus signos. Estos signos transforman el Modelo 1 en su opuesto. En segundo lugar, todos los modelos DEA sufren de la existencia de múltiples proyecciones; esto puede influir en la medida de los Retornos a Escala (para mayor conocimiento sobre la cuestión, consultar Sueyoshi y Sekitani (2009a) y Sueyoshi y Sekitani (2007a,b)). Finalmente, remarcar que el Modelo podría dirigirse hacia un punto ineficiente, pero no es necesario considerarlo porque estas proyecciones están relacionadas con la “congestión” en el Análisis Envolvente de Datos de tal manera que un incremento en los inputs lleva consigo una reducción de los outputs deseados, como se puede ver en Cooper et al. (2001a, b) y Sueyoshi y Sekitani (2009b). b. Eficiencia sanitaria: 2 modelos y proyecciones 8 19 En este apartado, vamos a medir la eficiencia sanitaria de la unidad organizativa específica k-esima siguiendo el siguiente modelo RAM input-output no-deseable (de ahora en adelante, Modelo 2): + Maximizar sujeto a (i=1,…, m), (f=1,…, h), (j=1,…, n), (i=1,…, m) y En dicho modelo, deseables. . (f=1,…, h) son variables holgura relacionadas con los outputs no- Los límites superiores e inferiores se representan por = ( )y ( ). Por tanto, los rangos del modelo para los inputs y los outputs no-deseables del Modelo 2 son . La valoración de la eficiencia sanitaria de la unidad k-esima viene medida por: =1–( + ). La ecuación dentro del paréntesis, obtenida del Modelo 2 optimizado, nos informa acerca la ineficiencia sanitaria. -Extensión del modelo (de ahora en adelante, Modelo 3): Maximizar + sujeto a (i=1,…, m), (f=1,…, h), (j=1,…, n), (i=1,…, m), (i=1,…, m) y . En este modelo, la variable holgura relacionada con el input “i” ( ) está dividida en una parte positiva y otra parte negativa ( ). Ambas partes se definen como y , siendo . Normalmente, esta transformación necesita cumplir la siguiente condición de no linealidad: , lo que implica que ambas partes son mutuamente excluyentes. Debido a ello, se produce una consecuencia de forma simultánea: , pero se excluye de la solución óptima del Modelo. Para que el Modelo 3 satisfaga dichas condiciones no lineales, tenemos 2 alternativas de cálculo: 1) Incorporar al Modelo las condiciones no lineales como parte de las restricciones. 2) Incorporar las siguientes restricciones: ; ; : binarios. 9 20 De este modo, podemos resolver el Modelo como un problema de programación entera mixta. Tras obtener una solución óptima del Modelo 3, determinamos la puntuación en eficiencia sanitaria de la unidad k-esima, medida por: =1–( + ). Todas las variables holgura son obtenidas a partir de la optimización del modelo. La ecuación dentro del paréntesis nos informa acerca la ineficiencia sanitaria. Gráfica 2: Proyecciones para alcanzar la eficiencia sanitaria Fuente: Sueyoshi y Goto(2010a, 2011), Sueyoshi et al.(2010) El gráfico 2 describe una visualización con respecto a por qué los Modelos 2 y 3 pueden medir el grado de eficiencia sanitaria. Para explicarlo mejor, lo ilustraremos con un ejemplo: Tomamos una planta térmica concreta para medir su eficiencia. Para ello, consideramos la relación entre el input “i” y el output no-deseable “f”. Un rasgo exclusivo para esta medida es que el output no-deseable está frecuentemente ocasionado por el input; si lo llevamos al ámbito empresarial, el carbón empleado durante la combustión en la planta genera emisiones de dióxido de carbono. Si la planta reduce la cantidad de carbón empleada en el proceso, la consecuencia automática sería una reducción en la cantidad de emisiones de gases: esto es lo que denominamos como una “reducción natural”, es decir, se consigue la reducción de emisiones sin ningún tipo de esfuerzo empresarial. En el gráfico encontramos una proyección de tal calibre en el desplazamiento del punto K al punto G: el punto K muestra la actividad de una planta térmica ineficiente y el punto G, su desempeño cuando se sitúa en la frontera de producción del output nodeseable cuando se trabaja de forma eficiente. 10 21 Por otro lado, el desplazamiento del punto K hacia el punto E informa acerca de un caso distinto; en esta ocasión, la combustión de carbón implica una reducción de las emisiones de dióxido de carbono debido a un esfuerzo empresarial (por ejemplo, un aumento de la calidad del carbón empleado o un esfuerzo tecnológico para reducir las emisiones). Por todo ello, este desplazamiento puede considerarse base para el estudio de la medida de la eficiencia sanitaria. c. Eficiencia unificada Un hallazgo importante en el apartado anterior es que hay 2 tipos de modelos unificados: un primer modelo formado por los modelos 1 y 2, y el segundo compuesto por los modelos 1 y 3. El siguiente punto combina ambos modelos para medir la eficiencia unificada propuesta. A partir de aquí, se clasifican en 2 categorías: Categoría 1, que engloba al primer modelo; y Categoría 2: compuesto por el segundo modelo. Gráfica 3: Eficiencia unificada. Fuente: Sueyoshi and Goto(2011) Para explicar las diferencias entre las 2 Categorías, emplearemos la “Gráfica 3”. Dicha gráfica describe el alcance de cada unidad organizativa que emplea un input y produce un output deseable y otro no-deseable: analizaremos, por ejemplo, la unidad k-esima. El gráfico 3 dispone de dos fronteras de eficiencia para unificar la eficiencia operacional y la sanitaria: la superior indica la frontera para los outputs deseables; la inferior, la frontera de eficiencia para los outputs no-deseables. Aunque el análisis se puede extender a múltiples inputs y outputs, en esta ocasión la unidad representada emplea un único input y solo produce un output deseable y otro no-deseable. Un aspecto importante es que la frontera eficiente deseable se encuentra por encima de la frontera de eficiencia de outputs “malos”. Sin embargo, aunque el caso contrario ocurriera, esto no provocaría dificultades en el cálculo de la medida eficiente, ya que la unificación solo mide la cantidad total de desviaciones entre las actuaciones de cada unidad organizativa y la frontera de eficiencia. Las dos fronteras están situadas 11 22 independientemente, tal que el método propuesto puede mantener una cierta fiabilidad. Esto es un beneficio de la metodología empleada. Finalmente, el Análisis Envolvente de Datos proyecta una organización ineficiente sobre una frontera eficiente y evalúa su actividad mediante una comparación relativa con la actividad de otras organizaciones. Cuando se discute sobre la eficiencia sanitaria, la dirección de tales proyecciones es mucho más importante que el uso convencional de las proyecciones en el análisis DEA. Categoría I En este apartado, vamos a combinar las medidas de eficiencia para obtener una nueva medida unificada, diferente a las medidas operacional y sanitaria por separado. Incluiremos dos nuevos superíndices (“g” y “b”) para especificar los outputs deseables y los no-deseables, respectivamente. El nuevo modelo DEA de Categoría I (de ahora en adelante, Modelo 4) ya ha sido analizado en anteriores trabajos como Sueyoshi y Goto (2010a, 2011) y Sueyoshi et al. (2010), y tiene la siguiente estructura matemática: Maximizar + sujeto a + + (i=1,…, m), (r=1,…, s), (i=1,…, m), (f=1,…, h), (i=1,…,m), (i=1,…,m), (r=1,…,s), (j=1,…,n) (i=1,…,m), (f=1,…,h) En dicho modelo, (j=1,…, n) y (j=1,…, n) indican la variable intensidad de la unidad organizativa j-esima para los outputs deseables y los outputs no-deseables, respectivamente. Los rangos en el modelo vienen expresados de la siguiente manera: . Para finalizar, hay que mencionar cuatro características que son exclusivas para este modelo: En primer lugar, las tres primeras restricciones del modelo tienen su origen en el Modelo 1 y las tres restantes proceden del Modelo 2. Por otra parte, dicho modelo incorpora una estructura matemática tal que crea dos fronteras de eficiencia: una para el comportamiento operacional y otra para el desempeño sanitario. Dichas fronteras vienen representadas por los dos grupos de holguras relacionadas con los inputs y los dos grupos de variables de intensidad. 12 23 En tercer lugar, las proyecciones del modelo se dirigen hacia el segundo y el cuarto cuadrante. Esto ocurre porque los grupos de restricciones tienen signos diferentes; en concreto, las dos primeras son distintas a la cuarta y quinta restricción. Finalmente, puede resolverse este modelo como un problema de programación lineal, es decir, se puede obtener una solución óptima, aunque pueda ocurrir un incidente de múltiples proyecciones y conjuntos de referencia. La puntuación de eficiencia unificada se obtiene a partir de la solución óptima y viene expresada por: = 1 – [ + + ] Categoría II Como alternativa al Modelo 4, en este apartado se emplea un nuevo modelo DEA que unifica los Modelos 1 y 3, de tal modo que dicha combinación proporciona un único conjunto de variables de intensidad, al contrario que el Modelo 4, el cual dispone de dos grupos de variables de intensidad, para obtener una puntuación de eficiencia unificada para el rendimiento operacional y el sanitario. Para ello, vamos a emplear la formulación estudiada en Sueyoshi y Goto (2010a, 2011) y Sueyoshi et al. (2010), de ahora en adelante “Modelo 5”: Maximizar + + sujeto a (i=1,…, m), (r=1,…, s), (i=1,…,m), (r=1,…,s), (j= 1,…, h) (i=1,…,m), (f=1,…,h) La variable de holgura ) relacionada con el input i-ésimo se encuentra separada en una parte positiva y otra negativa , incorporadas ambas en el primer grupo de restricciones. Matemáticamente, las dos holguras están definidas como =(| | + y =(| | ). Esto conlleva que en la función objetivo del Modelo 5 y en el primer grupo de restricciones. La transformación variable de las holguras de los inputs puede necesitar de las siguientes transformaciones no lineales: lo cual implica que las dos variables de holgura sean mutuamente excluyentes. En consecuencia, la condición de no negatividad de las holguras se excluye de la solución óptima del Modelo 5. Para que el Modelo 5 cumpla las condiciones no lineales, tenemos dos alternativas computativas: 1) Incorporar al Modelo las condiciones no lineales como parte de las restricciones y resolver el Modelo 5 con como un problema de programación no lineal. 2) Incorporar las siguientes restricciones: ; ; 13 24 : binarios. De este modo, podemos resolver el Modelo como un problema de programación entera mixta; M es un número demasiado grande que debe ser prescrito. -Inviabilidad de la formulación dual del Modelo 5: Es importante remarcar que el Modelo puede producir una solución factible. Sin embargo, también se puede producir una solución ilimitada porque la formulación dual es inviable. En este caso, hay que depender de una de las dos alternativas. Normalmente, ambas producen una solución similar. En este caso, la solución ilimitada conlleva al incumplimiento de las condiciones no lineales del problema; no es una solución ilimitada corriente en programación no lineal, es decir, que el valor óptimo tiende al infinito. El incumplimiento de las condiciones implica que las variables de holgura sean positivas simultáneamente, para cualquier “i” en la solución óptima del Modelo 5. El problema de cálculo del Modelo 5 supone una desventaja metodológica, aunque el modelo puede expresar las dos fronteras de eficiencia mediante un único conjunto de variables de intensidad. Además, la dirección de las proyecciones del Modelo 5 está enfocada no solo al primer y tercer cuadrante, sino también hacia el segundo cuadrante. Si la reducción natural se considera parte del esfuerzo gubernamental para la protección del medioambiente, el segundo cuadrante se convierte en una importante dirección potencial para las proyecciones del modelo. Para ello, debería incluir estas proyecciones en la estructura analítica del problema. Tras obtener una solución óptima del Modelo 5, podemos obtener una puntuación en eficiencia sanitaria de la unidad k-esima, medida por: =1–( + ). Todas las variables de holgura, que representan el nivel de ineficiencia, son obtenidas a partir de la optimización del modelo. La ecuación dentro del paréntesis nos informa acerca la ineficiencia sanitaria. 4. ANALISIS DE LA EFICIENCIA A continuación se analiza la eficiencia tanto de los recursos públicos utilizados como del uso que se hace de ellos en el sistema sanitario español. En la tabla I se muestran los datos relativos a la eficiencia operacional, eficiencia sanitaria, eficiencia unificada, RTS y DTS, de las 17 CAs y de las dos Ciudades Autónomas del país. Nº CA EOp ESan EU RTS DTS RTS Unificada 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 Andalusia Aragon Asturias Balearic Islands Canary Islands Cantabria Castile-Leon Castile-La Mancha Catalonia Valencian Community Extremadura Galicia Madrid Murcia Navarra Basque Country 1 1 0.759 1 0.846 1 1 0.910 1 0.936 1 0.980 1 1 1 0.880 0.788 1 1 0.725 1 1 1 0.966 1 0.837 0.926 0.873 1 0.858 1 1 0.824 1 0.799 0.771 0.872 1 1 0.897 1 0.811 0.938 0.878 1 0.882 1 0.900 Constante Constante Decreciente Constante Decreciente Constante Constante Decreciente Constante Decreciente Constante Decreciente Decreciente Constante Constante Decreciente Creciente Creciente Creciente Creciente Creciente Constante Creciente Creciente Constante Creciente Creciente Creciente Constante Creciente Constante Creciente Constante Constante Decreciente Constante Decreciente Constante Constante Decreciente Constante Decreciente Constante Decreciente Decreciente Constante Constante Decreciente 14 DTS Unificada Creciente Creciente Creciente Creciente Creciente Constante Creciente Creciente Constante Creciente Creciente Creciente Constante Creciente Constante Creciente 25 17 18 19 Rioja, La Ceuta Melilla 0.924 0.914 1 0.937 0.815 1 0.884 0.774 1 Decreciente Decreciente Constante Creciente Creciente Creciente Decreciente Decreciente Constante Creciente Creciente Creciente Tabla I: Eficiencias operacional, sanitaria y unificada, así como tasas de variabilidad de rendimientos a escala y tasas de variabilidad de daños a escala de las variables deseables y no-deseables por separado, y de su estudio unificado (Fuente de elaboración propia). La tabla II muestra el valor de las ineficiencias operacional y sanitaria calculadas de forma independiente a través de las funciones objetivo de las entidades eficientes, como la parte de ineficiencia operacional y sanitaria que incorpora el estudio unificado de la eficiencia. Estas ineficiencias están relacionadas entre sí, por lo que se han calculado dos variables, H1 y H2, que reflejan la mejora incorporada por el estudio unificado de la eficiencia tanto en la vertiente operacional como en la vertiente sanitaria, cuando el estudio se realiza de forma unificada en lugar de independiente. Nº CA 1 2 3 4 Andalusia Aragon Asturias Balearic Islands Canary Islands Cantabria Castile-Leon Castile-La Mancha Catalonia Valencian Community Extremadura Galicia Madrid Murcia Navarra Basque Country Rioja, La Ceuta Melilla 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 Fobj-OP FobjOP-U Fobj-San Fobj-San-U 0 0 0,24116147 0 0 0,20096789 0,21158093 0 0 0,17631744 0 0 H1=( FobjOP)-( FobjOP-U) 0 0 0,04019358 H2=( FobjSan )-( FobjSan-U) 0,03526349 0 0 Mejora= H1+H2 0,03526349 0 0,04019358 0 0 0,2745587 0,22879892 0 0,04575978 0,04575978 0,1538245 0 0 0,12818708 0 0 0 0 0 0 0 0 0,02563742 0 0 0 0 0 0,02563742 0 0 0,08985873 0 0,07488228 0 0,03415036 0 0,02845863 0 0,01497646 0 0,00569173 0 0,02066818 0 0,06428425 0 0,02024846 0 0 0 0,05357021 0 0,01687372 0 0 0 0,16291396 0,07394126 0,12656542 0 0,14192015 0 0,13576163 0,06161772 0,10547118 0 0,11826679 0 0,01071404 0 0,00337474 0 0 0 0,02715233 0,01232354 0,02109424 0 0,02365336 0 0,03786637 0,01232354 0,02446898 0 0,02365336 0 0,12007997 0,07583442 0,08582251 0 0,10006664 0,06319535 0,07151876 0 0 0,06277687 0,1851356 0 0 0,05231406 0,15427966 0 0,02001333 0,01263907 0,01430375 0 0 0,01046281 0,03085593 0 0,02001333 0,02310188 0,04515968 0 Tabla II: Relaciones entre ineficiencias operacional, sanitaria y unificada (Fuente de elaboración propia). Fobj-OP: Ineficiencia operacional marcada por la función objetivo de la eficiencia operacional Fobj-OP-U: Componente operacional de la ineficiencia unificada marcada por la función objetivo de la eficiencia unificada. Fobj-San: Ineficiencia sanitaria marcada por la función objetivo de la eficiencia sanitaria. Fobj-San.U: Componente sanitaria de la ineficiencia unificada marcada por la función objetivo de la eficiencia unificada. - Andalucía. En términos globales, la CA de Andalucía cuenta con eficiencia operacional pero no con eficiencia sanitaria (ver tabla I). Ello significa, que tiene un tamaño productivo adecuado, que le permite con los recursos públicos invertidos en sanidad por habitante protegido, así como de la distribución que realiza de los mismos entre conciertos, formación de residentes y aplicación pública directa a los ciudadanos, un nivel adecuado de la esperanza de vida al nacer, por lo que se entiende que su gestión es eficiente en la consecución del output que se considera deseable, y se sitúa en la frontera superior para el citado output-good. El hecho de no contar con eficiencia sanitaria (0.788), implica que debe reducir la tasa de mortalidad por cada 100.000 habitantes en más de 100 personas, para lo que debe incrementar la inversión sanitaria por habitante protegido hasta 1.380€ y destinar a conciertos una proporción mayor de la que destina en la actualidad (debe pasar del 4,73% al 5,61%) a la vez que mantiene el porcentaje de inversión en las otras áreas (ver Anexo II). Se debe tener en cuenta, que la tasa de daños 15 26 a escala (DTS) es creciente, lo que implica que un incremento de los inputs, provoca un incremento más que proporcional del output no-deseable (output-bad), por lo que la recomendación relativa al tamaño operacional es que debe reducir la cantidad de inputs utilizados, no incrementarlos. Deben, por ello, buscarse otras medidas o políticas encaminadas a reducir el output no-deseable o a cambiar la tendencia de variabilidad de los daños a escala que se producen. El hecho de no contar con eficiencia sanitaria implica que tampoco cuenta con eficiencia unificada. En este caso el valor de la eficiencia unificada es inferior al valor de la eficiencia operacional y superior al valor de la eficiencia sanitaria (0.824) (ver tabla I). La eficiencia unificada, combina ambas eficiencias al tener en cuenta que en la organización al utilizar unos determinados inputs se generan una serie de outputs (good y bad) de forma conjunta y no separada. Al estudiar la eficiencia unificada, observamos como las componentes de ineficiencias operacional y sanitaria de la eficiencia unificada, absorben parte de sus respectivas ineficiencias tratadas de forma independiente, ya que ese margen residual de ineficiencias es superior a la ineficiencia operacional e inferior a la ineficiencia sanitaria (ver tabla II), lo que sitúa a la eficiencia unificada en un punto intermedio entre las eficiencias operacional y sanitaria. Esto implica que al analizar la eficiencia en la gestión de los recursos para obtener unos determinados niveles de output deseable y no-deseable, la organización debe ser capaz de mejorar la eficiencia para situarse en la frontera superior eficiente marcada por las funciones de producción de las organizaciones eficientes en la gestión de sus recursos con unos niveles adecuados de producción de outputs deseables y en la frontera inferior para los no-deseables. En el caso de Andalucía (ver Anexo III) se sitúa en la frontera superior, pero para situarse en la inferior debe realizar un esfuerzo financiero con el incremento de los recursos que destina a gastos sanitarios por habitante protegido hasta los 1380€ y la proporción que destina a conciertos hasta el 5,61% a la vez que reduce la tasa de mortalidad por cada 100.000 habitantes en más de 100 personas. Podemos observar, que las modificaciones necesarias para situar a la organización en la frontera eficiente, son las mismas que en el caso de la eficiencia sanitaria. Esto se debe a dos hechos fundamentales, el primero relativo a que el punto proyectado en la frontera eficiente, está marcado por dos vectores que establecen un intervalo dentro del cual puede situarse el nivel de uso de inputs y el nivel de outputs alcanzados. El segundo, es que los coeficientes aplicados a las eficiencias operacional, sanitaria y unificada, tienen una diferencia mínima, la suficiente como para mostrar la diferencia entre eficiencias y el peso negativo que tiene la falta de eficiencia sanitaria sobre la unificada, pero que no es suficiencia como para modificar el intervalo que marca el punto en la frontera eficiente. La variabilidad tanto de la tasa de rendimientos a escala (constante) como de la tasa de daños a escala (creciente) no se ve alterada, por lo que se debe ser prudente a la hora de gestionar los recursos para obtener el nivel adecuado de output no-deseable, ya que una variación de los inputs provoca un aumento más que proporcional de los outputs no-deseables lo que puede perjudicar la eficiencia. - Aragón. La CA de Aragón, cuenta con eficiencia operacional, eficiencia sanitaria y eficiencia unificada (ver tabla I), por lo que se sitúa en las fronteras eficientes que marcan las funciones de producción de las DMUs eficientes para distintos tipos de eficiencia, es decir, realiza unas inversiones por habitante protegido en el sistema sanitario, así como una distribución de dichas inversiones de forma eficiente tanto para alcanzar un nivel de esperanza de vida adecuado y una tasa de mortalidad por cada 100.000 habitantes aceptable tanto si se estudian las eficiencias por separado como de forma unificada. Ello 16 27 se debe a que al no existir ineficiencias operacional ni sanitaria, lógicamente no es posible disminuirlas cuando se realiza un estudio unificado. - Asturias. En el caso de la CA de Asturias, su servicio sanitario cuenta con eficiencia sanitaria, pero no con eficiencia operacional que alcanza un valor de 0.759 (ver tabla I). La falta de eficiencia operacional indica que no cuenta con una dimensión adecuada. Para alcanzar la eficiencia operacional, la organización debe realizar una serie de ajustes tanto en sus inputs como en su output deseable (ver Anexo I). Debe reducir el gasto sanitario por habitante protegido en casi 370€ a la vez que reduce ligeramente la parte de este gasto que destina a formación de residentes (4%) y la que destina a la atención directa de los ciudadanos (0.84%), con lo que debe conseguir un aumento de la esperanza de vida de más de 1,65 años, es decir, debe reducir su estructura operacional en aras de conseguir la eficiencia operacional y alcanzar el nivel de output deseables con una menor cantidad de recursos invertidos. Esta falta de eficiencia operacional explica la falta de eficiencia unificada (0.799), que se encuentra entre la eficiencia operacional y sanitaria. Los ajustes necesarios para alcanzar la eficiencia unificada son los mismos que los que hay que realizar para alcanzar la eficiencia operacional (ver anexo III), ello se debe a que el punto proyectado sobre la frontera eficiente para marcar los niveles óptimos de inputs y outputs, viene determinado por unos vectores que delimitan el área dentro de la cual se encuentran los puntos ineficientes de producción y que deben tender hacia el proyectado en la frontera eficiente marcada por las funciones de producción de las DMUs eficientes. La organización se sitúa en la frontera inferior de la eficiencia unificada pero no en la superior. Para ello, debe realizar una serie de ajustes tanto en sus inputs como en su output deseable. Debe reducir el gasto sanitario por habitante protegido en casi 370€ a la vez que reduce la parte de este gasto que destina a formación de residentes (4,07%) y la que destina a la atención directa de los ciudadanos (0.84%), con lo que debe conseguir un aumento de la esperanza de vida de más de 1,65 años. A estos niveles cuenta con una dimensión operacional adecuada para conseguir la eficiencia unificada. Se debe tener en cuenta que la tasa de RTS es decreciente, por lo que la variación de los inputs provoca una variación menos que proporcional de los outputs por lo que la reducción que se ha sugerido anteriormente tiende a provocar una reducción del output menos que proporcional, aunque no un aumento como se propone. El hecho de que la eficiencia unificada, se encuentre encima de la eficiencia operacional y por debajo de la eficiencia sanitaria, se explica porque al realizar el estudio unificado de la eficiencia, se incorpora una mejora que viene dada por la comparación de las componentes separables de las funciones objetivo de las eficiencias operacional y sanitaria unificadas sobre las de sus respectivas ineficiencias calculadas de forma independiente (ver tabla II), y esta mejora es mayor que la ineficiencia operacional, marcada por la función objetivo del servicio sanitario asturiano para el estudio de la eficiencia operacional, por lo que absorbe la ineficiencia operacional. - Islas Baleares. En el caso del servicio sanitario de las Islas Baleares, nos volvemos a encontrar con que cuenta con eficiencia operacional, pero no con eficiencia sanitaria (0.725), lo que da lugar a un nivel de eficiencia unificada que se encuentra entre ambos (0.771) (ver tabla I). Este servicio sanitario, se encuentra bien dimensionado, de forma que realiza unas inversiones sanitarias por habitante protegido y las distribuye de forma apropiada para alcanzar el nivel de outputs deseable adecuados. Desde el punto de vista de la eficiencia 17 28 sanitaria, es necesario que se realicen una serie de ajustes para alcanzar dicha eficiencia (ver anexo II). Para conseguir la eficiencia sanitaria es necesario aumentar el gasto sanitario por habitante protegido en 191,51€, al mismo tiempo que se aumenta la proporción de los mismos que se destina a formación de residentes y a atención directa a los ciudadanos (aumento del 71% y 1,71% respectivamente). Junto a estos ajustes de los inputs, se requiere una disminución de la tasa de mortalidad por cada 100.000 habitantes en más de 72 personas (15% aproximadamente). En el caso de la eficiencia unificada, el sistema balear de sanidad se sitúa en la frontera superior marcada por las funciones de producción que cuentan con eficiencia unificada, sin embargo para situarse al mismo tiempo en la frontera inferior y contar así con eficiencia unificada necesita incrementar su inversión pública sanitaria por habitante protegido en 191,51€, a la vez que destina incrementa la proporción de los mismos que destina a formación de residentes en un 71% y la parte que destina a gasto sanitario directo en un 1,71%, a la vez que reduce la tasa de mortalidad por cada 100.000 habitantes en 73 personas, ajustes similares a los que debe realizar para alcanzar la eficiencia sanitaria (ver anexo II). Esta coincidencia, como se ha dicho anteriormente, se debe a que el punto proyectado sobre la frontera eficiente está marcado por dos vectores que establecen un área desde la cual todos los puntos incluidos en ella deben tender al punto proyectado para alcanzar la eficiencia. A esos niveles, este sistema sanitario tiene tanto eficiencia sanitaria como eficiencia unificada, no obstante, debe tenerse en cuenta que en ambos casos la DTS es creciente, lo que implica que un aumento de los inputs provoca un aumento más que proporcional de los outputs lo que sería contraproducente para alcanzar el objetivo de eficiencia que nos hemos marcado, por lo que deberían aplicarse otro tipo de políticas capaces de mejorar la eficiencia. En este caso, como podemos observar en la Tabla II, al no existir ineficiencia desde el punto de vista operacional, el estudio unificado de la misma no puede reducir el nivel de ineficiencia por debajo de la ineficiencia operacional al ser una DMU eficiente. Si puede, en cambio, al existir un nivel de ineficiencia sanitaria por encima de la mejora incorporada por las componentes unificadas de las ineficiencias operacional y sanitaria unificadas sobre sus respectivas eficiencias operacional y sanitaria, absorber parte de la ineficiencia sanitaria y situar la eficiencia unificada por encima de la sanitaria pero sin alcanzar el nivel de eficiencia. - Islas Canarias. El sistema sanitario de las Islas Canarias, tiene eficiencia sanitaria pero no eficiencia operacional (0.846), lo que indica que este servicio sanitario no está bien dimensionado. La eficiencia unificada se encuentra entre los valores de la eficiencia operacional y sanitaria (0.872), ya que la falta de eficiencia operacional impide que este servicio sanitario cuente con eficiencia cuando el estudio se realiza de forma unificada (ver tabla I). Para alcanzar la eficiencia operacional (ver Anexo I), el servicio sanitario canario, debe reducir la cantidad de gasto sanitario por habitante protegido en más del 12,6%, a la vez que disminuye la proporción de los mismos destinada a conciertos y formación de personal (13,6% y 16,8% respectivamente), junto a estas disminuciones debe incrementar la esperanza de vida en casi un año. A estos niveles, el servicio sanitario de la CA de Canarias alcanzará la eficiencia operativa y se situará en la frontera eficiente marcada por las funciones de producción de las entidades eficientes en el uso de los recursos que utilizan para la consecución de un nivel de output-good o deseable. Esta falta de eficiencia operacional, da lugar a la falta de eficiencia unificada. Para situarse 18 29 en las fronteras eficientes superior e inferior marcadas por las funciones de producción de las DMUs unificadamente eficientes, el servicio sanitario de las Islas Canarias, debe realizar unos ajustes similares a los que debe realizar para alcanzar la eficiencia operacional (ver anexo III). Ello se debe la que el punto sobre la frontera eficiente viene marcado no por un vector, sino por un área delimitada por dos vectores desde la cual se puede tender a la eficiencia. Se observa que la tasa RTS es decreciente, lo que implica que una variación de los inputs provoca una variación menos que proporcional de los outputs, y que si se lleva a cabo una reducción de los inputs como la propuesta, provoca una disminución menos que proporcional a la de los inputs, pero en cualquier caso una disminución y no un aumento como el que se ha sugerido. El hecho de contar con eficiencia sanitaria implica, obviamente, la falta de ineficiencia sanitaria, por lo que la mejora que introduce el estudio unificado de la eficiencia en relación al estudio de la eficiencia operacional y sanitaria por separado, no puede mejorar la eficiencia sanitaria, sin embargo, esa mejora si que afecta a la eficiencia operacional ya que absorbe parte de su ineficiencia (ver tabla II) y sitúa a la eficiencia unificada entre los valores de la eficiencia sanitaria y operacional . - Cantabria. La CA de Cantabria cuenta con eficiencia operacional, sanitaria y unificada (ver tabla I), lo que implica un uso eficiente de los recursos invertidos en la sanidad pública, con un nivel adecuado de gasto por habitante protegido y una distribución de los mismos de forma conveniente, que le permite obtener una esperanza de vida y tasa de mortalidad por cada 100.000 habitantes adecuados (ver anexos I, II y III) y situarse en las fronteras de producción de las organizaciones eficientes, fronteras a la que su propia función de producción contribuye a delimitar. La falta de eficiencia operacional y sanitaria, implica la imposibilidad de mejora cuando se realiza el estudio de forma unificada en lugar de independiente. - Castilla-León. Nuevamente nos encontramos con un servicio sanitario, el de la CA de Castilla-León, que alcanza la eficiencia operacional, sanitaria y unificada (ver tabla I). Se confirma por tanto utiliza los recursos públicos que destina a su sistema sanitario lo hace de forma eficiente a la hora de conseguir unos niveles de outputs deseable y no-deseable adecuados. El estudio unificado de las eficiencias operacional y sanitaria, se realiza en base a la pérdida de ineficiencia operativa y sanitaria cuando el estudio se realiza comparando las componentes de ineficiencia operativa y sanitaria de la eficiencia unificada con ambas ineficiencias estudiadas de forma independiente (ver tabla II). Al contar con eficiencia operacional y sanitaria, no existen ineficiencias por lo que no es posible reducirla. - Castilla-La Mancha. El servicio sanitario de la CA de Castilla-La Mancha, no tiene ni eficiencia operacional (0.910), ni eficiencia sanitaria (0.966), ni eficiencia unificada (0.897) (ver tabla I). Se trata, en primer lugar, de una organización mal dimensionada, que no se sitúa en la frontera eficiente superior marcada por las funciones de producción de las entidades operacionalmente eficientes. Para conseguir alcanzar la eficiencia operacional debe reducir el gasto sanitario por habitante protegido en un 12,5%, a la vez que reduce la proporción de los mismos que destina a formación de residentes (reducción de 6,4%), el resto de variables utilizadas en el estudio no necesita ningún ajuste, incluida la esperanza de vida que se considera tiene un nivel adecuado (ver anexo I). A estos 19 30 niveles, el servicio sanitario de la CA de Castilla-La Mancha, se sitúa en la frontera eficiente marcada por las funciones de producción de las DMUs operacionalmente eficientes. Para alcanzar la eficiencia sanitaria, y gestionar sus recursos de forma adecuada en aras a alcanzar un nivel de output no-deseable necesario para obtener esta eficiencia, debe, con el nivel de gasto sanitario por habitante protegido actual, incrementar la proporción del mismo que destina a conciertos y a formación de residentes (5,75% y 6,2% respectivamente), a la vez que disminuye la tasa de mortalidad por cada 100.000 habitantes 16 personas (ver anexo II). A estos valores el sistema sanitario de Castilla-La Mancha se sitúa en la frontera eficiente marcada por las funciones de producción de las DMUs sanitariamente eficientes. Como hemos dicho, este servicio sanitario tampoco cuenta con eficiencia unificada. Para alcanzarla, el servicio sanitario de la CA de Castilla-La Mancha, debe realizar ajustes similares a los realizados para alcanzar la eficiencia operacional y situarse en la frontera superior marcada por las funciones de producción que cuentan con eficiencia unificada y ajustes similares a los establecidos para alcanzar la eficiencia sanitaria y situarse así en la frontera inferior marcada por las mismas funciones de producción (ver anexo III). Se vuelve a insistir en que la coincidencia en los ajustes se debe a que la proyección puede darse desde los diferentes puntos de un área delimitada por los vectores que focalizan el punto en la frontera eficiente al que debe proyectarse la DMU para conseguir la eficiencia. Debe tenerse en cuenta que la tasa RTS tanto cuando se estudia a eficiencia operacional, como cuando se estudia la eficiencia unificada es decreciente lo que implica que una variación de los inputs provoca una variación menos que proporcional de los outputs por lo que la reducción propuesta tiende a disminuir el output-good aunque sea menos que proporcionalmente. Del mismo modo, la tasa DTS tanto para la eficiencia sanitaria como para la unificada, es creciente, lo que implica que un aumento de los inputs provoca un aumento más que proporcional de los outputs, lo cual va en contra de las medidas de ajustes propuestas, por lo que es necesario aplicar otro tipos de políticas adicionales para alcanzar el objetivo de eficiencia. El estudio de la eficiencia unificada, arroja un valor de la eficiencia por debajo de las eficiencias operacional y sanitaria. En este caso, la mejora incorporada por eficiencia unificada con respecto a las eficiencias operacional y sanitaria estudiadas de forma separada, debe absorber tanto la ineficiencia operacional como la sanitaria. En ambos casos, esa mejora no alcanza el nivel de ineficiencia operacional, ni el nivel de ineficiencia sanitaria determinada por las funciones objetivo de ambas eficiencias (ver tabla II), por lo que no es capaz de absorber ninguna de ellas en su totalidad y sitúa la eficiencia unificada por debajo de las otras dos. - Cataluña. La gestión de los recursos públicos invertidos en el sistema sanitario de la CA de Cataluña se realiza de forma eficiente tanto si se realiza un estudio independiente de las eficiencias operacional y sanitaria, como si el estudio se hace de forma unificada, para alcanzar unos niveles de outputs adecuados (ver anexos I, II y III). La falta de ineficiencias operacional y sanitaria da lugar a que el estudio unificado de las mismas no requiera de mejora de la eficiencia (ver tabla II). En definitiva, la CA de Cataluña con las inversiones sanitarias por habitante protegido, y la distribución de la misma entre conciertos, formación de residentes y atención directa a los ciudadanos que realiza, sitúa la esperanza de vida y la tasa de mortalidad a unos niveles adecuados 20 31 como para situar el sistema sanitario autonómico, en relación a las variables analizadas, en las fronteras eficientes marcadas por las funciones de producción de las DMUs eficientes, entre las que ella misma se encuentra, tanto a nivel operacional y sanitario de forma independiente, como unificado. - Comunidad Valenciana. El servicio sanitario de la Comunidad Valenciana, no cuenta ni con eficiencia operacional (0.936), ni con eficiencia sanitaria (0.837), ni con eficiencia unificada (0.811) (ver tabla I). Este servicio sanitario debe reestructurar las inversiones que realiza en gasto sanitario y disminuir su dimensión para alcanzar la eficiencia operacional (ver anexo I). La proyección que debe realizar de sus variables, en este sentido, requieren una disminución del gasto sanitario por habitante protegido de casi 33€, así como una leve disminución de la proporción que destina a atención directa a los ciudadanos de 0.34%. Con estas medidas de ajuste, no llega a alcanzar la eficiencia operacional ya que adicionalmente es necesario un incremento de la esperanza de vida de más de una año. A esos niveles, el servicio sanitario de la Comunidad Valenciana está trabajando a unos niveles que le permiten obtener la eficiencia operacional y situarse en la frontera marcada por las funciones de producción de las DMUs operacionalmente eficientes. Para alcanzar la eficiencia sanitaria, en cambio, debe incrementar el gasto sanitario por habitante protegido en más de 85€, a la vez que incrementa la proporción de los mismos que destina a conciertos y a formación de residentes (7,2% y 22,76% respectivamente). Estos ajustes de los inputs no consiguen colocar a este servicio sanitario en la frontera marcada por las funciones de producción de las DMUs eficientes, adicionalmente se requiere una disminución de la tasa de mortalidad por cada 100.000 habitantes de más del 14% (ver anexo II). A esos niveles, el servicio sanitario de la Comunidad Valencia, cuenta con eficiencia sanitaria y se sitúa en la frontera marcada por las funciones de producción de las organizaciones que operan con eficiencia sanitaria. Para contar con eficiencia unificada, el sistema sanitario de la Comunidad Valencia debe llevar a cabo ajustes similares a los que se proponen para alcanzar la eficiencia operacional y situarse en la frontera superior marcada por las funciones de producción que cuentan con eficiencia unificada y ajustes similares a los que se proponen para la eficiencia sanitaria, y situarse en la frontera inferior marcada de las mismas funciones de producción (ver anexo 3). El hecho de que a pesar de partir de dos puntos distintos de eficiencia se requiera tender hacia las mismas proyecciones, se debe, como se ha dicho ya reiteradas veces, a que dicho punto está marcado por dos vectores que delimitan un área desde la que cualquier punto de la misma deba proyectarse hacia la convergencia vectorial para alcanzar la eficiencia. Debe tenerse en cuenta que tanto para eficiencia operacional como para la unificada la tasa RTS es creciente, lo que implica que una variación de los inputs provoca una variación más que proporcional de los outputs-good o deseables, por lo que la disminución propuesta de los inputs da lugar a una disminución más que proporcional de la esperanza de vida, y no un aumento como se propone. Por el contrario, la tasa DTS es decreciente tanto para la eficiencia sanitaria como para la unificada, lo que implica que una variación de los inputs provoca una variación menos que proporcional de los outputs, por lo que si se realizan los ajustes al alza propuestos, la variación del outputbad o no-deseable es menos que proporcional pero suponen un incremento del output en lugar de la disminución propuesta. Este sistema sanitario tiene una eficiencia unificada por debajo tanto de la eficiencia operacional como de la eficiencia sanitaria. Ello se debe a que la mejora incorporada 21 32 por las componentes operacional y sanitaria de la eficiencia unificada sobre las eficiencias operacional y sanitaria respectivamente, no alcanzan ni el valor de la ineficiencia operacional, ni el valor de la ineficiencia sanitaria, establecido por las funciones objetivo de ambas eficiencias para este sistema sanitario. Por lo tanto, la mejora no es capaz de absorber ninguna de las dos ineficiencias al completo, y eso da lugar a una eficiencia unificada por debajo de las otras dos. - Extremadura. En el caso del servicio sanitario de la CA de Extremadura, cuenta con eficiencia operacional pero no con eficiencia sanitaria (0.926), lo que da lugar a la falta de eficiencia unificada (0.938) (ver tabla I). Los ajustes necesarios para situarse en la frontera eficiente cuando estudiamos la eficiencia en la gestión de los recursos para alcanzar un nivel adecuado de output no-deseable en el servicio sanitario de Extremadura, es decir, cuando se pretenden alcanzar la eficiencia sanitaria, deben, con el mismo nivel de inversión en gasto sanitario por habitante protegido, aumentar más de un 18% el porcentaje de gasto destinado a conciertos y un 13,7% los destinados a formación de residentes. Aun así, no se alcanza la eficiencia sanitaria si no se diminuye la tasa de mortalidad en casi 40 personas por cada 100.000 habitantes (ver anexo II). A estos niveles, el sistema sanitario extremeño se sitúa en la frontera que marcan las funciones de producción de la DMUs eficientes en el caso de la eficiencia sanitaria. Los ajustes que se requieren para conseguir la eficiencia unificada, son similares a los que se requieren para alcanzar la eficiencia sanitaria (ver anexo III). A esos niveles de inputs y output no-deseable, el servicio sanitario de Extremadura se sitúa en las fronteras superior e inferior que marcan las funciones de producción unificadamente eficientes. No obstante, de nuevo se debe tener en cuenta que los DTS son crecientes por lo que un incremento de los inputs da lugar a un incremento más que proporcional de los outputs, lo que puede proporcionar un efecto contrario al pretendido para alcanzar la eficiencia. Ello implica que se hace necesario aplicar unas políticas de ajuste y mejora de la eficiencia aparte de los ajustes sobre las variables estudiadas propuestos. La falta de eficiencia sanitaria es superior a la mejora incorporada por el estudio unificado de la eficiencia a través de sus componentes operacional y sanitaria, por tanto, aunque se absorbe parte de la ineficiencia sanitaria al realizar un estudio unificado de la eficiencia, no lo hace en su totalidad, y sitúa a la eficiencia unificada por encima de la sanitaria, sin conseguir llegar a ser unificadamente eficiente. - Galicia. El sistema sanitario de la CA de Galicia no cuenta ni con eficiencia operacional (0.980), ni con eficiencia sanitaria (0.873), y por ende, tampoco con eficiencia unificada (0.878) (ver tabla I). Se observa, de nuevo, que la falta de eficiencias operacional y sanitaria, impide la existencia de eficiencia unificada. Para alcanzar la eficiencia operacional el sistema sanitario de Galicia debe reducir el gasto sanitario por habitante protegido únicamente en algo más de 27€ y conseguir, con la misma distribución de los recursos que realiza actualmente entre conciertos, formación de residentes y atención directa a los ciudadanos, un leve incremento de apenas 0.24% de la esperanza de vida (ver anexo I). Con estos ligeros ajustes, el sistema sanitario gallego tiene una dimensión adecuada que le permite situarse en la frontera marcada por las funciones de producción de las DMUs operacionalmente eficientes. 22 33 La eficiencia sanitaria, en cambio, debe incrementar el gasto sanitario por habitante protegido en más de 150€, a la vez que aumenta la proporción de ellos que destina a conciertos (11,45%) y a formación de residentes (0.97%). Aun a esos niveles de inputs, este servicio sanitario requiere de una disminución de la tasa de mortalidad por cada 100.000 habitantes de casi 47 personas (ver anexo II). A esas cotas, el sistema sanitario gallego gestiona sus recursos con eficiencia sanitaria y se sitúa en la frontera marcada por las funciones de producción de las DMUs sanitariamente eficientes. La proyección hacia la frontera superior marcada por las funciones de producción de aquellos servicios sanitarios que cuentan con eficiencia unificada implica los mismos ajustes que los propuestos para alcanzar la eficiencia operacional. Para situarse en la frontera inferior de las DMUs que cuentan con eficiencia unificada, los niveles de inputs y output-bad deben sufrir los mismos ajustes que se requieren para conseguir la eficiencia sanitaria (ver anexo III). Estas coincidencias se explican porque la proyección del valor eficiente está marcada por dos vectores convergentes en el mismo punto proyectado y que proporcionan un margen espacial desde el que se puede converger hacia dicho punto. Debe tenerse en cuenta, que la tasa RTS es decreciente tanto cuando se estudia la eficiencia operacional como cuando se estudia la eficiencia unificada, lo que implica que la disminución de los inputs propuesta, da lugar a una disminución menos que proporcional del output-good o deseable, pero disminución al fin y al cabo, y contrario al ajuste al alza propuesto. La tasa DTS, en cambio, tanto cuando se estudia la eficiencia sanitaria como unificada es creciente lo que implica que un incremento de los inputs provoca un incremento más que proporcional de los outputs, contraria, de igual forma, a los ajustes indicados. En este caso, se observa que la eficiencia unificada es inferior a la eficiencia operacional pero superior a la eficiencia sanitaria. Ello se debe a que la mejora en la eficiencia incorporada por las componentes operacional y sanitaria de la eficiencia unificada, se encuentra por debajo de la ineficiencia sanitaria y al mismo nivel de la ineficiencia operacional, lo que permite a la eficiencia unificada absorber en su totalidad la ineficiencia operacional pero no la ineficiencia sanitaria (ver tabla II). - Madrid. En el caso del sistema sanitario público de la CA de Madrid, se comporta de manera eficiente tanto a nivel operacional, como sanitario y unificado (ver tabla I). Este sistema sanitario, consigue con los recursos invertidos y la distribución que realiza de ellos, un buen nivel de esperanza de vida y un nivel aceptable de índice de mortalidad (ver anexos I, II y III). El hecho de contar con ambas eficiencias implica lógicamente su falta de ineficiencia por lo que el estudio conjunto de ambas, no da lugar a mejora alguna (ver tabla II). - Murcia. El sistema sanitario murciano alcanza la eficiencia operacional aunque no la eficiencia sanitaria (0.858). Esta falta de eficiencia sanitaria impide la falta de eficiencia unificada (0.882) (ver tabla I). Los ajustes necesarios para alcanzar la eficiencia sanitaria (ver anexo II) consisten en incrementa la proporción de los gastos destinados a formación de residentes en más de un 150% (aunque el aumento en términos absolutos sea de algo más del 1%). Con este ajuste no se consigue la eficiencia operacional, debe acompañarse de la disminución de la tasa de mortalidad de 26 personas por cada 100.000 habitantes. A estos niveles, el 23 34 sistema sanitario de Murcia se sitúa en la frontera marcada por las funciones de producción de las DMUs que trabajan a un nivel de eficiencia sanitaria. Este sistema sanitario, se sitúa en la frontera superior marcada por las funciones de producción de las DMUs que cuentan con eficiencia unificada, no así en la inferior, para lo que requiere unos ajustes similares a los propuestos para alcanzar la eficiencia sanitaria (ver anexo III). Como se ha dicho previamente, esta coincidencia deriva del hecho de que el punto proyectado sobre la frontera eficiente viene marcado por dos vectores que delimitan un área desde la que se puede converger para alcanzar la eficiencia. Nuevamente decir que hay que ser consciente de la tasa de variabilidad, tanto para la eficiencia sanitaria como unificada, de los DTS es creciente, lo que implica que un incremento en algún input provoca un incremento más que proporcional en el output (en este caso no-deseable), lo que afecta de forma negativa a la consecución del objetivo de eficiencia que pretendemos. Ello implica que se requieren una serie de políticas adicionales donde se incida en variables al margen de las estudiadas en este trabajo. La eficiencia unificada tiene un valor inferior a la eficiencia operacional y superior a la eficiencia sanitaria. Ello se debe a que la mejora incorporada por las componentes separables de las eficiencias operacional y sanitaria unificadas sobre sus respectivas eficiencias, es superior a la ineficiencia operacional que en este caso es inexistente y por tanto no requiere mejora, e inferior a la ineficiencia sanitaria, con lo que no es capaz de absorberla en su totalidad (ver tabla II). - Navarra. La CA de Navarra, es también una CA que gestiona sus recursos de forma eficiente tanto desde el punto de vista operacional, sanitario como unificado (ver tabla I). La inversión pública que hace por habitante protegido y el uso de la misma que realiza, consigue llegar a unos niveles de esperanza de vida y tasa de mortalidad que sitúan al servicio sanitario de esta CA en las fronteras marcadas por las funciones de producción de las DMUs eficientes, por lo que no se requiere ningún tipo de ajuste (ver anexos I, II y III). El estudio unificado de las eficiencias no implica mejora alguna de la misma al no contar de forma independiente con ningún tipo de ineficiencia (ver tabla II). Las funciones objetivo en ambos casos son cero por lo que el estudio conjunto de ambas no provoca variación alguna en la eficiencia unificada. - País Vasco. El servicio sanitario del País Vasco está sobre dimensionado por lo que no alcanza la eficiencia operacional (0.880), aunque si la sanitaria. El hecho de no contar con eficiencia operacional implica la falta de eficiencia unificada (0.900). Para llegar trabajar a un nivel de eficiencia operacional, este sistema sanitario debe disminuir el gasto sanitario por habitante protegido en 250€, lo que supone una reducción de un 15%, a la ver que reduce la proporción de dicho gasto destinado a la formación de residentes en casi un 7%. Estas medidas de ajustes no son efectivas, si no van acompañadas de un leve incremento de la esperanza de vida del 0,12% (ver anexo I). A estos niveles, el servicio sanitario del País Vasco se sitúa en la frontera marcada por las funciones de producción de los servicios sanitarios que cuentan con eficiencia operacional. La eficiencia unificada, se consigue a través de los mismos ajustes que los propuestos para la eficiencia operacional. Si observamos el anexo III, este servicio sanitario no requiere ajustes para situarse en la frontera inferior, sólo los requiere para situarse en la 24 35 frontera superior y conseguir trabajar a un nivel de eficiencia unificada. Esta coincidencia en los ajustes, se reitera, por la existencia de un área de convergencia hacia los puntos proyectados en las fronteras superior e inferior marcados por las funciones de producción de las DMUs eficientes. Tanto para la eficiencia operacional como para la unificada, la tasa RTS es decreciente. Esto implica que la disminución propuesta de los inputs, provocan una disminución menos que proporcional de los outputs, pero en ningún caso un incremento como el necesario para alcanzar el nivel de eficiencia. En este caso la eficiencia unificada es superior a la eficiencia operacional e inferior a la eficiencia sanitaria. Ello es debido a que la mejora introducida por las componentes operacional y sanitaria de la eficiencia unificada sobre sus respectivas ineficiencias operacional y sanitaria, es menor que la ineficiencia operacional por lo que es incapaz de absorber ese nivel de ineficiencia, y aunque la mejora a nivel unificado, no la elimina (ver tabla II). La ineficiencia sanitaria es nula, por lo que no necesita mejora. - La Rioja. En el caso del servicio sanitario de La Rioja, no tiene ni eficiencia operacional (0.924), ni sanitaria (0.937) y por ende no tiene eficiencia unificada (0.884) (ver tabla I). Este servicio sanitario se encuentra sobre dimensionado (ver anexo I). Para alcanzar la eficiencia operacional, debe diminuir el gasto sanitario por habitante protegido en casi un 12%, a la vez que reduce ligeramente los gastos destinados a la atención directa a los ciudadanos (0.32%). Al mantener la esperanza de vida al nivel actual y ajustar los inputs tal como se indica, esta organización consigue trabajar a un nivel operacionalmente eficiente y situarse en la frontera de producción de las DMUs eficientes. Para conseguir la eficiencia sanitaria, en cambio, se requiere el incremento de la proporción de gastos destinados a conciertos (2,96%) y a formación de residentes en (27,27%). Estos ajustes deben ir acompañados de una disminución de la tasa de mortalidad por cada 100.000 habitantes de algo más del 3% para alcanzar la eficiencia sanitaria (ver anexo II). A estos niveles el servicio sanitario de La Rioja se sitúa en la frontera eficiente marcada por las funciones de producción de las DMUs sanitariamente eficientes. Los ajustes necesarios para situar al servicio sanitario riojano en la frontera inferior marcada por las funciones de producción de las entidades que tienen eficiencia unificada serán los mismos que los propuestos para alcanzar la eficiencia sanitaria (ver anexo III). Nuevamente, se debe a que el punto proyectado en la frontera eficiente está marcado por dos vectores que delimitan el área de convergencia desde donde deben trasladarse los inputs y output-bad, y en el que se encuentran las funciones de producción tanto cuando tratamos los datos desde el punto de vista de la eficiencia sanitaria como unificada. Para alcanzar la eficiencia operacional o conseguir la eficiencia operacional de la vertiente unificada de la eficiencia no se requieren ajustes, por encontrarse en la frontera superior. Hay que tener en cuenta que la tasas RTS es decreciente tanto si se estudia la eficiencia operacional como unificada, lo que implica que la disminución propuesta en el input da lugar a una disminución menos que proporcional del output, pero en definitiva a una disminución y no un incremento como se recomienda. La tasa DTS, es creciente, tanto para el estudio sanitario como unificado de la eficiencia, lo que complica aún más el problema ya que el incremento recomendado para alcanzar el punto proyectado de la frontera eficiente, provoca un incremento más que proporcional del output, en lugar de 25 36 la disminución recomendada. Todo esto implica que deben incluirse otras políticas de ajustes que permitan la mejora de las eficiencias. La eficiencia unificada se encuentra por debajo tanto del la eficiencia operacional como de la sanitaria. Esto se debe a que la mejora introducida por las componentes operacional y sanitaria de la ineficiencia unificada sobre sus respectivas ineficiencias tratadas de forma independiente, no alcanzan el nivel de ineficiencia ni operacional ni sanitario (ver tabla II), por lo que el tratamiento unificado de las eficiencias no es capaz de absorber ninguna de las dos ineficiencias independientes, lo que afecta de forma negativa al tratamiento unificado de las eficiencias en relación a las eficiencias operacional y sanitaria. - Ceuta. Nuevamente la ciudad autónoma de Ceuta no cuenta ni con eficiencia operacional (0.914), ni con eficiencia sanitaria (0.815), y por consiguiente ni con eficiencia unificada (0.774) (ver tabla I). Para alcanzar la eficiencia operacional, el servicio sanitario de Ceuta, manteniendo el nivel de gasto sanitario por habitante protegido que tiene actualmente debe reducir levemente (0.75%) el gasto sanitario que destina directamente a la atención de los ciudadanos a la vez que incrementa la esperanza de vida (2.25%). Con estos niveles de inputs y output deseable, el sistema sanitario de Ceuta se sitúa en la frontera marcada por las funciones de producción de las DMUs operacionalmente eficientes. La eficiencia sanitaria se consigue si se incrementan los gastos destinados a formación de residentes en más de un 87% (disminución absoluta de 0,72%). Aun así, con estos niveles de inputs no se consigue la eficiencia sanitaria, es necesario disminuir la tasa de mortalidad por cada 100.000 habitantes en más de 92 personas (casi 16%) (ver anexo II). Con esa proyección, el sistema sanitario de Ceuta se sitúa en la frontera marcada por las funciones de producción de las entidades sanitariamente eficientes. Nuevamente, los ajustes necesarios para alcanzar la eficiencia unificada, son similares a los propuestos para alcanzar la eficiencia operacional y sanitaria y situar los niveles de inputs y outputs de la eficiencia unificada en las fronteras superior e inferior de las entidades que trabajan con una eficiencia unificada (ver anexo III). En este caso la tasa RTS tanto a nivel operacional como unificado es decreciente, lo que significa que una variación de los inputs provoca una variación del output deseable menos que proporcional pero en el mismo sentido, lo cual no se ajusta a las necesidades requeridas para alcanzar la eficiencia. La tasa DTS tanto para la eficiencia sanitaria como para la unificada es creciente, lo que significa que una variación de los inputs provoca una variación más que proporcional en el mismo sentido del output-bad, lo que empeora el problema, al requerir el ajuste un incremento del input y una disminución del output no-deseable. La eficiencia unificada se encuentra por debajo tanto de la eficiencia operacional como de la sanitaria. Ello se justifica porque la mejora introducida por las componentes operacional y sanitaria de la eficiencia unificada, con respecto a sus respectivas eficiencias, no es suficiente para superar la ineficiencia operacional que nos da la función objetivo de la eficiencia operacional, ni tampoco para absorber la falta de eficiencia sanitaria que nos marca la función objetivo de la eficiencia sanitaria (ver tabla II). - Melilla. 26 37 Melilla es la única de las dos ciudades autónomas que cuenta con un servicio sanitario que consigue eficiencia operacional, eficiencia sanitaria y por lo tanto eficiencia unificada (ver tabla I). Se sitúa en la frontera superior marcada por las funciones de producción de las entidades eficientes para alcanzar un nivel de esperanza de vida adecuado, en la frontera inferior marcadas por las funciones de producción eficientes cuando se valora la eficiencia sanitaria y consigue situar la tasa de mortalidad a unos niveles eficientes. Además para determinar la eficiencia unificada su función de producción, junto con el resto de DMUs eficientes, marcan las fronteras superior e inferior para alcanzar los niveles de outputs deseable y no-deseable cuando el estudio se realiza de forma unificada, por lo que en ningún caso se precisa ningún tipo de ajuste (ver anexos I, II y III). La falta de ineficiencias cuando se analizan las eficiencias operacional y sanitaria por separado, da lugar a que no se requiera mejora alguna de las eficiencia cuando el estudio se realiza de forma unificada (ver tabla II). 5. CONCLUSIONES A lo largo del trabajo hemos llegado a una serie de conclusiones tanto a nivel teórico como aplicadas a la eficiencia de los servicios sanitarios autonómicos. Con respecto a las primeras concluimos en primer lugar que la eficiencia unificada es superior a la eficiencia operacional e inferior la eficiencia sanitaria, siempre y cuando la suma de la pérdida de ineficiencia operacional cuando se trata de forma unificada en lugar de independiente y la pérdida de ineficiencia sanitaria cuando se trata de forma unificada en lugar de independiente es menor a la ineficiencia sanitaria y superior a la ineficiencia operacional. En segundo lugar, la eficiencia unificada es mayor que la eficiencia sanitaria y menor que la eficiencia operacional, siempre y cuando la suma de la pérdida de ineficiencia operacional cuando se trata de forma unificada en lugar de independiente y la pérdida de ineficiencia sanitaria cuando se trata de forma unificada en lugar de independiente, es mayor o igual a la ineficiencia operacional y menor o igual a la ineficiencia sanitaria. En tercer lugar, la eficiencia unificada es menor o igual a la eficiencia sanitaria, siempre y cuando la diferencia entre la ineficiencia sanitaria y su vertiente unificada, añadida a la diferencia entre la ineficiencia operacional y su vertiente unificada es menor o igual a la ineficiencia operacional. Y por último, la eficiencia unificada es menor o igual a la eficiencia operacional, siempre y cuando el descenso de la ineficiencia operacional cuando se trata dentro de la eficiencia unificada en lugar de independiente unido al descenso de la ineficiencia sanitaria cuando se trata dentro de la eficiencia unificada en lugar de independiente, es menor o igual a la ineficiencia sanitaria. En el estudio que hemos realizado los sistemas sanitarios de las diecinueve autonomías pueden agruparse en cinco bloques: El primero de ellos, está formado por siete sistemas sanitarios que cuentan tanto con eficiencia operacional, eficiencia sanitaria y eficiencia unificada. Este grupo lo componen los servicios sanitarios de Aragón, Cantabria, Castilla-León, Cataluña, Madrid, Navarra y Melilla. En todos ellos, la falta de ineficiencia tanto operacional como sanitaria, motiva que se alcance la eficiencia unificada. Los servicios sanitarios de estas CAs destinan un nivel de recursos públicos por habitante protegido y los distribuye de forma correcta para conseguir unos niveles de esperanza de vida y una tasa de mortalidad ajustada por la edad por cada 100.000 habitantes adecuados, y así situarse en las fronteras eficientes superior e inferior, marcadas por las funciones de producción 27 38 eficientes, tanto cuando el estudio de las eficiencias se realiza de forma independiente, como cuando se realiza de forma unificada. El segundo grupo estaría formado por cuatro sistemas sanitarios que cuentan con eficiencia operacional pero no con eficiencia sanitaria. En todos ellos, los niveles de eficiencia unificada son inferiores a los niveles de eficiencia operacional y superiores a los niveles de eficiencia sanitaria. Estamos hablando de los sistemas sanitarios de Andalucía, Islas Baleares, Extremadura y Murcia. En estos casos la mejora incorporada por las componentes operacional y sanitaria cuando el estudio se realiza de forma unificada, es lo suficientemente grande como para superar la ineficiencia operacional (que no existe), pero no lo es como para superar la ineficiencia sanitaria. Esto es así, porque la reducción de ineficiencia operacional cuando ésta se estudia de forma unificada y añadida a la reducción de la ineficiencia sanitaria cuando ésta se estudia de forma unificada, es decir, la mejora que incorpora el estudio unificado de ambas eficiencias, es inferior a la ineficiencia sanitaria y superior a la ineficiencia operacional lo cual es evidente en este último caso ya que al contar con eficiencia operacional el nivel de ineficiencia operacional es cero. En estos casos se recomiendan una serie de proyecciones hacia la frontera inferior cuando se habla de eficiencia sanitaria y cuando se habla de eficiencia unificada, frontera marcada por las funciones de producción de las DMUs eficientes, proyecciones que implican además de la reducción del output nodeseable, el aumento de los inputs. En todos los casos las tasas DTS son crecientes, lo que da lugar a que una variación de los inputs da lugar a un aumento más que proporcional de los outputs en el mismo sentido. Esto va en contra de los ajustes propuestos que proponen un incremento de los inputs acompañado de una disminución del output-bad, por lo que la mejora de la eficiencia sanitaria debería llevarse a cabo a través de una serie de políticas encaminadas a mejorar la eficiencia de los inputs como podrían ser la mejora tecnológica, el incremento de la productividad de los profesionales dedicados a la atención sanitaria directa, etc. El tercer grupo lo conforma únicamente el sistema sanitario de la CA de Galicia cuya eficiencia unificada se encuentra, igual que en el caso anterior por debajo de la eficiencia operacional y por encima de la eficiencia sanitaria, pero no cuenta con ninguna de ellas cuando el estudio se hace de forma independiente. No obstante, el estudio unificado de las eficiencias incorpora una mejora de la eficiencia sobre la eficiencia sanitaria y un empeoramiento de la misma sobre la eficiencia operacional al encontrarse el margen de mejora de las componentes de las ineficiencias operacional y sanitaria unificadas al mismo nivel de ineficiencia operacional y por debajo del nivel de ineficiencia sanitaria. Por ello, se requiere de la aplicación de otra serie de políticas encaminadas a la mejora de la eficiencia en la gestión de los recursos públicos destinados a sanidad donde intervengan otras variables que escapan a este estudio, como podría ser la mejora tecnológica, o el abaratamiento de los gastos sanitarios directos que absorben la mayoría de los recursos públicos invertidos a través, por ejemplo, de la reducción del gasto farmacéutico o de convenios con los laboratorios, o de mejora de la productividad del personal sanitario. El cuarto grupo estaría formado por los sistemas sanitarios de tres CAs que cuentan con eficiencia sanitaria pero no operacional. Estos sistemas sanitarios son los de las CAs de Asturias, Canarias y País Vasco. En este caso la eficiencia unificada es inferior a la eficiencia sanitaria y superior a la eficiencia operacional. Ello se debe a que el margen de mejora que incorporan las componentes unificadas de las eficiencias operacional y sanitaria de forma conjunta al estudiar la eficacia unificada en relación a las ineficiencias operacional y sanitaria, es mayor que la ineficiencia sanitaria e inferior a la 28 39 ineficiencia operacional. Desde el punto de vista de la mejora de las eficiencias, al no existir en este grupo ineficiencia sanitaria no es posible reducirla, por lo que el estudio unificado de la eficiencia, mejora desde el punto de vista operacional pero empeora desde el punto de vista sanitario. En este caso las políticas que deben aplicarse deben basarse fundamentalmente en la mejora de la productividad en aras a dimensionar mejor la organización, para que realice un uso más eficiente de los recursos y obtenga con los mismos o menores inputs una cantidad adecuada de output-good. Entre estas medidas podrían encontrarse la mejora de la productividad del personal sanitario como a través de políticas de objetivos o incentivos, o la rebaja en los gastos farmacéuticos con medidas de gestión de inventario, convenios con laboratorios o subastas de medicamentos, y de estructura como la revisión de contratos energéticos (luz, teléfono, etc.). El quinto grupo está formado cuatro sistemas sanitarios, los de Castilla-La Mancha, Comunidad Valenciana, La Rioja y Ceuta, ninguno de ellos tiene eficiencia operacional ni eficiencia sanitaria. En este caso la eficiencia unificada es inferior a ambas eficiencias independientes, ello se debe a que los márgenes de mejora en la eficiencia por parte de las componentes operacional y sanitaria de la eficiencia unificada sobre sus respectivas eficiencias, no alcanzan ni el nivel de ineficiencia operacional ni el de ineficiencia sanitaria, por lo que no es posible que la mejora incorporada por la eficiencia unificada sea capaz de absorber ninguno de ellos. Excepto en el primero de los grupos, que no lo requiere, para el resto de servicios sanitarios se recomiendan una serie de ajustes con la intención de alcanzar la eficiencia, no obstante, dichos ajustes conllevan unas tasas de rendimientos a escala para los outputs deseables y unas tasas de daños a escala para los outputs no-deseables, que suponen una variabilidad creciente, decreciente o constante de las variables, pero en el mismo sentido para los inputs y los outputs, lo que va en contra de los ajustes propuestos para alcanzar los diferentes tipos de eficiencia, lo que hace necesario aplicar otro tipo de políticas económicas o de gestión que permitan la mejora de la eficiencia. En definitiva, la eficiencia de las organizaciones en la gestión de sus recursos, estudiada de forma independiente en función de que los outputs sean deseables o no-deseables y estudiada de forma unificada teniendo en cuenta las variaciones necesarias de todos los tipos de outputs, puede ser explicada en base a la ineficiencia en la gestión de los recursos. BIBLIOGRAFIA ALÍ, A. I. y SEIFORD, L. M. (1993): “The mathematical programming approach to efficiency analysis”. H. O. FRIED, C.A.K. LOVELL, S.S. SCHMIDT (eds.), en The measurement of productive efficiency, Oxford University Press, New York. CAMPOS LUCENA, M.S. & VELASCO MORENTE F. (2013) “The efficiency of Public Television in Spain: Application of the DEA Measurement Model”, Revista de Ciencias Sociales, 19 (2), 363-378. COELLI, T., (1996): “A guide to DEAP 2.1. A data envelopment analysis (computer) program”, CEPA Working Paper 96/8, Department of Econometrics, University of New England, Armidale, disponible en http://www.owlnet.rice.edu/~econ380/DEAP.PDF. COELLI, T. (1998): “A multi-stage methodology for the solution of orientated DEA models”. Operations Research Letters, 23, 143-149 . 29 40 COOPER, W., SEIFORD, L. M. y KAROU, T. (2007): “Data envelopment analysis. A comprehensive text with Models, Applications, References and DEA-solver software”. Springer, New York. FARRELL, M. J. (1957): “The measurement of productive efficiency”. Journal of the Royal Statistical Society (A), 120, 3, 253-290. GONZÁLEZ RODRÍGUEZ, M.R., VELASCO MORENTE, F. Y GONZÁLEZ ABRIL, L. (2010): “La eficiencia del sistema de protección social español en la reducción de la pobreza”. Papeles de población, 16, 64, 123-154. INCLASNS (2012): Base de datos de Indicadores Clave del Servicio Nacional de Salud del año 2012, http://www.msssi.gob.es/estadEstudios/estadisticas/sisInfSanSNS/inclasSNS_DB.htm KOOPMANS T. C., (1951): “Efficient allocation of resources”. Econometrica, 19, 4, 455-465. LOWELL, C. A. K., y MUÑIZ, M. (2003): “Eficiencia y productividad en el sector público: temas dominantes en la literatura”. Papeles de Economía Española, 95, 47-65. RAMANATHAN, R. (2003): “An Introduction to Data Envelopment Analysis. A Tool For Performance Measurement”. Sage Publications. SMITH, P. y M. GODDARD, (2003): “Los indicadores de gestión en el sector público: fortaleza y debilidades”. Papeles de Economía Española, núm. 95, 35-46. SUEYOSHI, T & GOTO, M. (2011) “Measurement of Returns to Scale and Damages to Scale for DEA-based operational and environmental assessment: How to manage desirable (good) and undesirable (bad) outputs?”, European Journal of Operational Research 211, 76-89. 30 41 ANEXO I: EFICIENCIAS OPERACIONALES, PROYECCIONES. EOP INPUT 1 PROY. INPUT 1 Dif. % INPU T 2 PROY . INPU T 2 Dif. % INPU T 3 PROY . INPU T 3 Andalusia 1 1.184,14 1.184,14 0,00 0,00% 4,73 4,73 0,00 0,00% 2,08 2,08 Aragon 1 1.609,50 1.609,50 0,00 0,00% 3,99 3,99 0,00 0,00% 1,38 1,38 0,759 1.641,19 1.271,63 369,56 22,52 % 7,19 7,19 0,00 0,00% 1,65 1,58 nº CCAA 1 2 3 Asturias 4 Balearic Islands 5 Canary Islands 6 Cantabria 1 7 Castile-Leon 1 8 Castile-La Mancha 9 Catalonia 1 0 1 1 1 2 1 3 1 4 1 5 1 6 1 7 1 Valencian Community Extremadura Galicia 1.180.54 1.180.54 0,00 0,00% 8,86 8,86 0,00 0,00% 1,27 1,27 0,846 1.354,67 1 1.183,57 171,10 12,63 % 10,47 9,09 1,38 13,16 % 1,52 1,26 1.341,19 1.341,19 0,00 0,00% 4,50 4,50 0,00 0,00% 2,58 2,58 1.387,27 1.387,27 0,00 0,00% 5,07 5,07 0,00 0,00% 1,98 1,98 0,910 1.512,34 1.324,83 187,51 12,40 % 6,74 6,74 0,00 0,00% 1,77 1,66 1.380,87 1.380,87 0,00 0,00% 24,21 24,21 0,00 0,00% 0,92 0,92 0,936 1.361,70 1 1.328,75 32,95 2,42% 6,58 6,58 0,00 0,00% 1,58 1,58 1.625,03 1.625,03 0,00 0,00% 4,29 4,29 0,00 0,00% 1,32 1,32 0,980 1.337,83 1 1.310,21 27,62 2,06% 5,63 5,63 0,00 0,00% 1,78 1,78 Madrid 1 1.371,83 1.371,83 0,00 0,00% 8,48 8,48 0,00 0,00% 2,20 2,20 Murcia 1 1.622,13 1.622,13 0,00 0,00% 7,18 7,18 0,00 0,00% 0,69 0,69 Navarra 1 1.574,64 1.574,64 0,00 0,00% 7,60 7,60 0,00 0,00% 1,42 1,42 0,880 1.661,47 1.412,04 249,43 6,96 6,96 0,00 0,00% 1,70 1,59 Rioja, La 0,924 1.487,94 1.311,87 176,07 Ceuta 0,914 1.550,41 1.550,41 0,00 Basque Country 15,01 % 11,83 % 0,00% 7,34 7,34 0,00 0,00% 1,54 1,54 6,30 6,30 0,00 0,00% 0,82 0,82 31 Dif. 0,0 0 0,0 0 0,0 7 0,0 0 0,2 6 0,0 0 0,0 0 0,1 1 0,0 0 0,0 0 0,0 0 0,0 0 0,0 0 0,0 0 0,0 0 0,1 1 0,0 0 0,0 % INPU T 4 PROY . INPU T 4 0,00% 92,26 92,26 0,00% 93,43 93,43 4,07% 90,91 90,15 0,00% 88,09 88,09 16,80 % 87,85 87,85 0,00% 92,53 92,53 0,00% 92,76 92,76 6,38% 89,97 89,97 0,00% 72,22 72,22 0,00% 91,11 90,80 0,00% 91,46 91,46 0,00% 91,70 91,70 0,00% 90,03 90,03 0,00% 88,91 88,91 0,00% 85,74 85,74 6,72% 87,89 87,89 0,00% 89,67 89,39 0,00% 91,93 91,24 Dif. % 0,0 0 0,0 0 0,7 6 0,0 0 0,00 % 0,00 % 0,84 % 0,00 % 0,0 0 0,0 0 0,0 0 0,0 0 0,0 0 0,3 1 0,0 0 0,0 0 0,0 0 0,0 0 0,0 0 0,0 0 0,2 8 0,6 0,00 % 0,00 % 0,00 % 0,00 % 0,00 % 0,34 % 0,00 % 0,00 % 0,00 % 0,00 % 0,00 % 0,00 % 0,32 % 0,75 OUTPU T Good PROY. OUTPU T Good Dif. % 81,03 81,03 0,00 0,00% 82,57 82,57 0,00 0,00% 81,35 83,01 1,66 -2,03% 82,71 82,71 0,00 0,00% 81,76 82,71 0,95 -1,16% 82,58 82,58 0,00 0,00% 83,38 83,38 0,00 0,00% 82,97 82,97 0,00 0,00% 82,77 82,77 0,00 0,00% 81,89 82,97 1,08 -1,32% 81,82 81,82 0,00 0,00% 82,21 82,41 0,20 -0,24% 84,05 84,05 0,00 0,00% 81,99 81,99 0,00 0,00% 83,84 83,84 0,00 0,00% 82,80 82,90 0,10 -0,12% 83,11 83,11 0,00 0,00% 79,54 81,33 - -2,25% 42 8 1 9 Melilla 1 1.585,28 1.585,28 0,00 0,00% 5,16 5,16 0,00 0,00% 0,68 0,68 0 0,0 0 0,00% 93,98 93,98 9 0,0 0 % 0,00 % 1,79 80,00 80,00 0,00 0,00% ANEXO II: EFICIENCIA SANITARIA, PROYECCIONES. ESan INPUT 1 PROY. INPUT 1 Andalusia Aragon Asturias 0,788 1 1 1.184,14 1.609,50 1.641,19 1.379,84 1.609,50 1.641,19 -195,70 -16,53% 0,00 0,00% 0,00 0,00% 4 Balearic Islands 0,725 1.180,54 1.372,05 -191,51 -16,22% 5 Canary Islands 1 1.354,67 1.354,67 0,00 0,00% 6 Cantabria 1 1.341,19 1.341,19 0,00 0,00% 7 Castile-Leon 1 1.387,27 1.387,27 0,00 8 Castile-La Mancha 0,966 1.512,34 1.512,34 0,00 9 Catalonia 10 Valencian Community nº CCAA 1 2 3 Dif. % PROY. INPUT INPUT 2 2 4,73 3,99 7,19 Dif. PROY. INPUT INPUT 3 3 % Dif. % PROY. INPUT INPUT 4 4 Dif. % PROY. OUTPUT OUTPUT B B Dif. % 5,61 3,99 7,19 -0,88 -18,53% 0,00 0,00% 0,00 0,00% 2,08 1,38 1,65 2,08 1,38 1,65 0,00 0,00 0,00 0,00% 0,00% 0,00% 92,26 93,43 90,91 92,26 93,43 90,91 0,00 0,00 0,00 0,00% 0,00% 0,00% 541,10 469,61 522,64 438,79 469,61 522,64 102,31 18,91% 0,00 0,00% 0,00 0,00% 8,86 8,86 0,00 0,00% 1,27 2,17 -0,90 -70,79% 88,09 89,60 -1,51 -1,71% 486,92 414,18 72,74 14,94% 10,47 10,47 0,00 0,00% 1,52 1,52 0,00 0,00% 87,85 87,85 0,00 0,00% 509,37 509,37 0,00 0,00% 4,50 4,50 0,00 0,00% 2,58 2,58 0,00 0,00% 92,53 92,53 0,00 0,00% 477,49 477,49 0,00 0,00% 0,00% 5,07 5,07 0,00 0,00% 1,98 1,98 0,00 0,00% 92,76 92,76 0,00 0,00% 439,52 439,52 0,00 0,00% 0,00% 6,74 7,13 -0,39 -5,75% 1,77 1,88 -0,11 -6,20% 89,97 89,97 0,00 0,00% 456,09 440,29 15,80 3,46% 1 1.380,87 1.380,87 0,00 0,00% 24,21 24,21 0,00 0,00% 0,92 0,92 0,00 0,00% 72,22 72,22 0,00 0,00% 462,59 462,59 0,00 0,00% 0,837 1.361,70 1.447,33 -85,63 -6,29% 6,58 7,05 -0,47 -7,20% 1,58 1,94 -0,36 -22,76% 91,11 91,11 0,00 0,00% 502,34 430,97 71,37 14,21% 11 Extremadura 0,926 1.625,03 1.625,03 0,00 0,00% 4,29 5,08 -0,79 -18,31% 1,32 1,50 -0,18 -13,68% 91,46 91,46 0,00 0,00% 506,48 466,77 39,71 7,84% 12 Galicia 13 Madrid 1.337,83 1.371,83 1.488,57 1.371,83 5,63 8,48 6,27 8,48 -0,64 -11,45% 0,00 0,00% 1,78 2,20 1,80 2,20 -0,02 0,00 -0,97% 0,00% 91,70 90,03 91,70 90,03 0,00 0,00 0,00% 0,00% 487,68 412,98 440,80 412,98 46,88 0,00 9,61% 0,00% 0,873 1 -150,74 -11,27% 0,00 0,00% 32 43 14 Murcia 15 Navarra 0,858 1 1.622,13 1.574,64 Basque 16 Country 1.622,13 1.574,64 0,00 0,00 0,00% 0,00% 7,18 7,60 7,18 7,60 0,00 0,00 0,00% 0,00% 0,69 1,42 1,74 1,42 -1,05 -152,90% 0,00 0,00% 88,91 85,74 88,91 85,74 0,00 0,00 0,00% 0,00% 497,90 422,87 471,91 422,87 25,99 0,00 5,22% 0,00% 1 1.661,47 1.661,47 0,00 0,00% 6,96 6,96 0,00 0,00% 1,70 1,70 0,00 0,00% 87,89 87,89 0,00 0,00% 463,26 463,26 0,00 0,00% 17 Rioja, La 18 Ceuta 19 Melilla 0,937 0,815 1 1.487,94 1.550,41 1.585,28 1.487,94 1.550,41 1.585,28 0,00 0,00 0,00 0,00% 0,00% 0,00% 7,34 6,30 5,16 7,56 6,30 5,16 -0,22 0,00 0,00 -2,96% 0,00% 0,00% 1,54 0,82 0,68 1,96 1,54 0,68 -0,42 -0,72 0,00 -27,27% -87,65% 0,00% 89,67 91,93 93,98 89,67 91,93 93,98 0,00 0,00 0,00 0,00% 0,00% 0,00% 448,44 581,36 573,06 434,62 489,19 573,06 13,82 92,17 0,00 3,08% 15,85% 0,00% Dif. % Dif. % ANEXO III: EFICIENCIAS UNIFICADAS, PROYECCIONES. EOP INPUT 1 PROY. INPUT 1 PROY. INPUT INPUT 2 2 Dif. % 0,824 1.184,14 1.184,14 1 1.609,50 1.609,50 0,799 1.641,19 1.271,63 0,00 0,00 369,56 0,00% 0,00% 22,52% 4,73 3,99 7,19 Balearic Islands 0,771 1.180,54 1.180,54 0,00 0,00% 5 Canary Islands 0,872 1.354,67 1.183,57 171,10 6 7 Cantabria Castile-Leon 0,00 0,00 8 Castile-La Mancha 9 Catalonia 10 Valencian Community nº CCAA 1 2 3 Andalusia Aragon Asturias 4 1 1 1.341,19 1.341,19 1.387,27 1.387,27 0,897 1.512,34 1.324,83 PROY. INPUT INPUT 3 3 PROY. INPUT INPUT 4 4 PROY. OUTPUT OUTPUT Good Good Dif. % Dif. % 4,73 3,99 7,19 0,00 0,00 0,00 0,00% 0,00% 0,00% 2,08 1,38 1,65 2,08 1,38 1,58 0,00 0,00 0,07 0,00% 0,00% 4,07% 92,26 93,43 90,91 92,26 93,43 90,15 0,00 0,00 0,76 0,00% 0,00% 0,84% 81,03 82,57 81,35 81,03 82,57 83,01 0,00 0,00 -1,66 0,00% 0,00% -2,03% 8,86 8,86 0,00 0,00% 1,27 1,27 0,00 0,00% 88,09 88,09 0,00 0,00% 82,71 82,71 0,00 0,00% 12,63% 10,47 9,09 1,38 13,16% 1,52 1,26 0,26 16,80% 87,85 87,85 0,00 0,00% 81,76 82,71 -0,95 -1,16% 0,00% 0,00% 4,50 5,07 4,50 5,07 0,00 0,00 0,00% 0,00% 2,58 1,98 2,58 1,98 0,00 0,00 0,00% 0,00% 92,53 92,76 92,53 92,76 0,00 0,00 0,00% 0,00% 82,58 83,38 82,58 83,38 0,00 0,00 0,00% 0,00% 0,00% 187,51 12,40% 6,74 6,74 0,00 0,00% 1,77 1,66 0,11 6,38% 89,97 89,97 0,00 0,00% 82,97 82,97 0,00 1.380,87 1.380,87 0,00 0,00% 24,21 24,21 0,00 0,00% 0,92 0,92 0,00 0,00% 72,22 72,22 0,00 0,00% 82,77 82,77 0,00 0,00% 0,811 1.361,70 1.328,75 32,95 2,42% 6,58 6,58 0,00 0,00% 1,58 1,58 0,00 0,00% 91,11 90,80 0,31 0,34% 81,89 82,97 -1,08 -1,32% 11 Extremadura 0,938 1.625,03 1.625,03 0,00 0,00% 4,29 4,29 0,00 0,00% 1,32 1,32 0,00 0,00% 91,46 91,46 0,00 0,00% 81,82 81,82 0,00 0,00% 1 33 44 12 13 14 15 Galicia Madrid Murcia Navarra 0,878 1 0,882 1 1.310,21 1.371,83 1.622,13 1.574,64 27,62 0,00 0,00 0,00 2,06% 0,00% 0,00% 0,00% 5,63 8,48 7,18 7,60 5,63 8,48 7,18 7,60 0,00 0,00 0,00 0,00 0,00% 0,00% 0,00% 0,00% 1,78 2,20 0,69 1,42 1,78 2,20 0,69 1,42 0,00 0,00 0,00 0,00 0,00% 0,00% 0,00% 0,00% 91,70 90,03 88,91 85,74 91,70 90,03 88,91 85,74 0,00 0,00 0,00 0,00 0,00% 0,00% 0,00% 0,00% 82,21 84,05 81,99 83,84 82,41 84,05 81,99 83,84 -0,20 0,00 0,00 0,00 -0,24% 0,00% 0,00% 0,00% 16 Basque Country 0,900 1.661,47 1.412,04 249,43 15,01% 6,96 6,96 0,00 0,00% 1,70 1,59 0,11 6,72% 87,89 87,89 0,00 0,00% 82,80 82,90 -0,10 -0,12% 0,884 1.487,94 1.311,87 0,774 1.550,41 1.550,41 1 1.585,28 1.585,28 176,07 0,00 0,00 11,83% 0,00% 0,00% 7,34 6,30 5,16 7,34 6,30 5,16 0,00 0,00 0,00 0,00% 0,00% 0,00% 1,54 0,82 0,68 1,54 0,82 0,68 0,00 0,00 0,00 0,00% 0,00% 0,00% 89,67 91,93 93,98 89,39 91,24 93,98 0,28 0,69 0,00 0,32% 0,75% 0,00% 83,11 79,54 80,00 83,11 81,33 80,00 0,00 -1,79 0,00 0,00% -2,25% 0,00% Dif. % Dif. % Dif. % Dif. % Dif. % 2,08 1,38 1,65 0,00 0,00 0,00 0,00% 0,00% 0,00% 92,26 93,43 90,91 0,00 0,00 0,00 0,00% 0,00% 0,00% 17 Rioja, La 18 Ceuta 19 Melilla ESan 1.337,83 1.371,83 1.622,13 1.574,64 INPUT 1 PROY. INPUT 1 nº CCAA 1 2 3 Andalusia Aragon Asturias 0,824 1.184,14 1.379,84 1 1.609,50 1.609,50 0,799 1.641,19 1.641,19 -195,70 -16,53% 0,00 0,00% 0,00 0,00% 4 Balearic Islands 0,771 1.180,54 1.372,05 -191,51 -16,22% 5 Canary Islands 0,872 1.354,67 1.354,67 6 7 Cantabria Castile-Leon 8 Castile-La Mancha 9 Catalonia 10 Valencian Community 11 12 13 14 15 Extremadura 0,938 1.625,03 1.625,03 Galicia 0,878 1.337,83 1.488,57 Madrid 1 1.371,83 1.371,83 Murcia 0,882 1.622,13 1.622,13 Navarra 1 1.574,64 1.574,64 16 Basque Country 17 Rioja, La 18 Ceuta PROY. INPUT INPUT 2 2 4,73 3,99 7,19 5,61 3,99 7,19 PROY. INPUT INPUT 3 3 -0,88 -18,53% 0,00 0,00% 0,00 0,00% 2,08 1,38 1,65 PROY. INPUT INPUT 4 4 92,26 93,43 90,91 PROY. OUTPUT OUTPUT B B 541,10 469,61 522,64 438,79 469,61 522,64 102,31 18,91% 0,00 0,00% 0,00 0,00% 8,86 8,86 0,00 0,00% 1,27 2,17 -0,90 -70,79% 88,09 89,60 -1,51 -1,71% 486,92 414,18 72,74 14,94% 0,00 0,00% 10,47 10,47 0,00 0,00% 1,52 1,52 0,00 0,00% 87,85 87,85 0,00 0,00% 509,37 509,37 0,00 0,00% 1.341,19 1.341,19 1.387,27 1.387,27 0,00 0,00 0,00% 0,00% 4,50 5,07 4,50 5,07 0,00 0,00 0,00% 0,00% 2,58 1,98 2,58 1,98 0,00 0,00 0,00% 0,00% 92,53 92,76 92,53 92,76 0,00 0,00 0,00% 0,00% 477,49 439,52 477,49 439,52 0,00 0,00 0,00% 0,00% 0,897 1.512,34 1.512,34 0,00 0,00% 6,74 7,13 -0,39 -5,75% 1,77 1,88 -0,11 -6,20% 89,97 89,97 0,00 0,00% 456,09 440,29 15,80 3,46% 0,00 0,00% 24,21 24,21 0,00 0,00% 0,92 0,92 0,00 0,00% 72,22 72,22 0,00 0,00% 462,59 462,59 0,00 0,00% -85,63 -6,29% 6,58 7,05 -0,47 -7,20% 1,58 1,94 -0,36 -22,76% 91,11 91,11 0,00 0,00% 502,34 430,97 71,37 14,21% 0,00 0,00% -150,74 -11,27% 0,00 0,00% 0,00 0,00% 0,00 0,00% 4,29 5,63 8,48 7,18 7,60 5,08 6,27 8,48 7,18 7,60 -0,79 -18,31% -0,64 -11,45% 0,00 0,00% 0,00 0,00% 0,00 0,00% 1,32 1,78 2,20 0,69 1,42 1,50 1,80 2,20 1,74 1,42 -0,18 -13,68% -0,02 -0,97% 0,00 0,00% -1,05 -152,90% 0,00 0,00% 91,46 91,70 90,03 88,91 85,74 91,46 91,70 90,03 88,91 85,74 0,00 0,00 0,00 0,00 0,00 0,00% 0,00% 0,00% 0,00% 0,00% 506,48 487,68 412,98 497,90 422,87 466,77 440,80 412,98 471,91 422,87 39,71 46,88 0,00 25,99 0,00 7,84% 9,61% 0,00% 5,22% 0,00% 1 1 1 1.380,87 1.380,87 0,811 1.361,70 1.447,33 0,900 1.661,47 1.661,47 0,00 0,00% 6,96 6,96 0,00 0,00% 1,70 1,70 0,00 0,00% 87,89 87,89 0,00 0,00% 463,26 463,26 0,00 0,00% 0,884 1.487,94 1.487,94 0,774 1.550,41 1.550,41 0,00 0,00 0,00% 0,00% 7,34 6,30 7,56 6,30 -0,22 0,00 -2,96% 0,00% 1,54 0,82 1,96 1,54 -0,42 -0,72 -27,27% -87,65% 89,67 91,93 89,67 91,93 0,00 0,00 0,00% 0,00% 448,44 581,36 434,62 489,19 13,82 92,17 3,08% 15,85% 34 45 19 Melilla 1 1.585,28 1.585,28 0,00 0,00% 5,16 5,16 0,00 0,00% 35 0,68 0,68 0,00 0,00% 93,98 93,98 0,00 0,00% 573,06 573,06 0,00 0,00% XVI Jornadas de ARCA 46 47 Un análisis de la eficiencia de la UE 27 a través de la huella de carbono con DEA M.S. Campos Lucenaa, M.T. Sanz Díazb, F. Velasco Morentec, Rocío Yñiguez Ovandob a Departamento de Contabilidad y Economía Financiera b Departamento de Análisis Económico y Economía Política c Departamento de Economía Aplicada Universidad de Sevilla {mscampos,mtsanz,velasco,ovando}@us.es Abstract Una de las causas del cambio climático son las emisiones de gases de efecto invernadero, su reducción se ha convertido en uno de los objetivos prioritarios de la UE-28, a través de políticas medioambientales orientadas a cumplir los objetivos marcados a nivel internacional. La aportación de nuestro artículo es la aplicación del DEA (Data Envelopment Analysis), aplicado a variables inputs y outputs que se pueden considerar aceptables y no aceptables con lo que se puede hacer un estudio de la eficiencia operacional (inputs y outputs good) y medioambiental (inputs y outputs bad), de forma individual y conjunta, de los 27 países de la UE, con el objeto de indicar a cada país el modelo de sus socios europeos más conveniente para mejorar su nivel de eficiencia en la doble dimensión considerada. Se realiza, además un estudio de la eficiencia operacional y ambiental de forma unificada. Se analiza la eficiencia medioambiental de los países de la UE-27 desde el enfoque consumidor, en el año 2008, por ser el primer año del compromiso de Kioto, determinando, asimismo los rendimientos y daños a escala de esos países y cuál debe ser su tendencia para mejorar su eficiencia. Los resultados muestran que al analizar la eficiencia unificada se reduce el número de países eficientes (Bulgaria, Alemania, Francia, Luxemburgo y Malta), en comparación con el análisis por separado de la eficiencia operacional y medioambiental Palabras clave: DEA no orientado, eficiencia opera- cional, eficiencia ambiental, eficiencia unificada XVI Jornadas de ARCA 48 49 Eco-driving: Energy Saving based on driver behavior V. Corcoba Magaña and M. Muñoz Organero Dpto. de Ingeniería Telemática Universidad Carlos III vcorcoba@it.uc3m.es 1 Introduction The growth in the number of vehicles in circulation has experienced a strong increase in the last 20 years. Figure 1 captures the number of vehicles since 1970 in US, Australia, and OCDE. The widespread use of the automobile has had very positive effects on the economy of the countries. However, they have also led to major problems due to the pollution produced and the amount of energy required. On the other hand, most of the vehicles employ hydrocarbons, which are not available in all regions, causing energy dependencies between countries. In addition, its extraction has a very large impact on the environment. The vehicles have become an important problem for governments and residents who suffer from respiratory diseases caused by greenhouses emissions [Caiazzo et al., 2013]. In order to avoid these problems, governments have developed regulations to control the emissions from vehicles. The drivers have also begun to require efficient vehicles due to the 800 600 400 200 0 1970 1980 1982 1984 1986 1988 1990 1992 1994 1996 1998 2000 2002 2004 Number of vehicles (Millions) The number of vehicles has grown in recent years. As a result, it has increased the fuel consumption and the emission of gaseous pollutants. The emission of gaseous pollutants causes more deaths than traffic accidents. On the other hand, the energy resources are limited and the increase in demand causes them even more expensive. In addition, the percentage of old vehicles is very high. Eco-driving is a good solution in order to minimize the fuel consumption because it is independent of the vehicle age. In this paper, a driving assistant is presented. This solution allows the user acquires knowledge about eco-driving. Unlike other solutions, our proposal adapts the recommendations to the user profile. It also provides information in advance such as: optimal average speed, anomalous events, deceleration pattern, and so on. These recommendations prevent that the user performs inefficient actions. In these type of systems, motivation is very important. Drivers lose the interest over time. To solve this problem, we employ gamification techniques that contribute to avoid drivers coming back to their previous driving habits increase in fuel prices. Currently, the fuel consumption is a very important factor to buy a vehicle. All this has caused manufacturers to introduce improvements in vehicles in order to minimize the fuel consumption such as: engine optimization, vehicle weight reduction, hybrid engines, and aerodynamic improvements. However, these measures are insufficient because the percentage of older vehicles is still very high. Year N. America/Amér. N. Australia/Australie-NZ OECD/OCDE Figure 1. Number of vehicles since 1970. Source: OCDE. Number of vehicles (Mullions) Abstract 5 4 3 2 1 0 Year of manufacture Figure 2. Age of vehicles in Spain. Source: DGT. 50 Figure 3. Architecture of Eco-Driving Assistant. Fuel consumption depends on the vehicle, the environment and the behavior of the driver. Recently, a method called "Eco-Driving" has gained popularity. This driving technique allows us to save fuel. It is based on the optimization of the parameters that the user controls such as: speed, acceleration, deceleration and gear. Fuel saving is achieved by minimizing the energy losses. This method to improve fuel consumption and reduce the emission of greenhouse gases is very useful because it is independent of the vehicle technology. However, the driver needs to know about efficient driving rules. This paper is focused on the need to learn how to drive efficiently following a set of rules, based on physics, which reduce unnecessary energy demands. In this work, we propose the use of an assistant who evaluates the driver behavior from the point of view of efficiency, and recommends improvements in order to save fuel. Furthermore, unlike other proposals, the system provides information about the nearby environment. Therefore, the user can take decisions in advance. This information is very important because the key to "eco-driving" is the driver's ability to predict the road state in the near future. The other main objective is to develop methods to motivate the user for driving efficiently, since many previous studies demonstrates that the driver tends to return to their previous driving habits, even after having received training on "eco-driving". 2 State of the art Eco-driving is a driving technique that saves fuel regardless of vehicle technology, and which is based on the control of the variables such as: speed, gear, acceleration, and deceleration. We can save up to 25% [Barbe and Boy, 2006] applying this driving technique. Although, this percentage depends on the driver skill, the vehicle type and the environment. For example, in hybrid vehicles the percentage of saving is less because an amount of the wasted energy is used in order to recharge the battery of the vehicle [Dardanelly et al., 2012]. In the literature, there are many works which demonstrate that this driving technique reduces fuel consumption and the emission of gaseous pollutants considerably. In [Van Mierlo et al., 2004] the authors analyzed the influence of the driving habits and the traffic on the fuel consumption and the emission of gaseous pollutants. Their conclusions were that drivers can save between 5% and 25% fuel following the ecodriving tips. This driving technique has also positive effects on safety. In [Haworth and Symmons, 2001] the results revealed that learning programs about efficient driving can decrease traffic accidents around 35%, and the emission of polluting gases between 25% and 50%. In another study about the effectiveness of the eco-driving courses for vans [Hedges and Moss, 1996], a decrease of traffic accidents by 40% and an increase on the fuel efficiency by 50% was obtained. The benefit of efficient driving training courses has been demonstrated on numerous occasions. However, several authors have observed that the positive effects of this learning are lost over time [af Wåhlberg, 2007] [Johansson et al., 2003]. Drivers tend to return to their previous driving habits when there is not motivation method. In the literature, there are many proposals to provide eco-driving tips and several types of feedback [Isler et al., 2010]. It has revealed that these solutions can influence positively the current driver behavior and long term [Van der Voort et al., 2001]. In the eco-driving, there are many research topics that can be classified into five groups: Identification of variables that affect fuel consumption Models to estimate the fuel consumption Control models Methods to motivate the driver User interfaces 51 2.1 Fuel Estimation Models 2.3 Driver Motivation An essential part of efficient driving is to identify what factors influence on fuel consumption [Hiraoka and Terakado, 2009]. These variables are those considered in the laboratory to estimate the fuel consumption. One of the first proposals is still used to certify the vehicles. Afterwards, other authors such as [André, 1996] [Fomunung et al., 1999] have increased the number of variables. Following this research line, [Ericsson, 2001] determines that we must avoid sudden accelerations and high power demand in order to minimize fuel consumption. Similarly, [Johansson et al., 2003 concluded that there are certain characteristics of behavior while driving that are strongly correlated with fuel consumption. According to this author, drivers must avoid unnecessary stops, slow abruptly and driving at high speed in order to decrease energy demand. Also, they highlighted that it is important to not change gear frequently due to energy losses, and that has to recover then accelerating. On the other hand, it is also important to know what variables affect safety. [Haworth and Symmons, 2001] identified these factors. The authors concluded that the reduction of vehicle speed, the choice of an optimal route, and the smoothly driving have positive effects on both: fuel consumption and safety. However, eco-driving tips such as driving at constant speed can cause traffic accidents. A lot of works have demonstrated that users tend to return to their previous driving habits, causing a deterioration in efficiency over time [Onoda, 2009]. [Rolim et al., 2003] discuss the impact of the eco-driving lessons. The results showed a decrease in the percentage of sudden acceleration, excessive vehicle speed and fuel consumption (4.8%). However, as other authors said, they conclude that these improvements could be temporary in the case that the user does not receive continuous feedback. New technologies, such as mobile devices and social networks, allow us to develop solutions to encourage the user to drive efficiently [Trommer and Höltl, 2011] [Ryosuke and Yasushide, 2010]. Vehicle manufacturers are also including in their vehicles driving assistants to help the user in order to change the driving habits. For example, Ford Focus 2013 included an assistant that evaluates whether the driver shifts gears properly, and if he or she avoids accelerating and braking sharply. Other similar examples are: Garmin Mechanic [Garmin, 2014], Torque [Torque, 2014] and Honda Eco-Assist [Torque, 2014]. The social networking awareness and behavior can also positively influence the driver’s motivation to save fuel. A method for utilizing fuel consumption data in an incentive system for the Tampere City Transport based on sharing individual driver’s average fuel consumption in a specific group compared to the average fuel consumption of all drivers in that specific group was proposed in [Tulusan et al., 2011]. The authors achieved savings between 1.4% and 4.6% of fuel using the solution. Also, they highlights the appropriateness of this proposal to keep in time the improvement. 2.2 Control Models These proposals obtain the optimal values of the control variables (throttle, brake and gear) from the point of view of energy efficiency. These algorithms are based on the prediction of near future. In the literature we found a large number of proposals in this research area. Its main advantage is that they allow to save fuel regardless of the driver's ability. However, users are reluctant to use them as we can see in [Van Der Laan et al., 1997]. Manufacturers are already introducing automated solutions to optimize fuel consumption. An example are the startstop systems which automatically turn off the engine when the vehicle stops and turn on it when the clutch is depressed. In addition, the engine is adapted, so there is no wear during this operation. In several studies, authors recommend turn off the engine when the vehicle is stopped for more than one minute. However, they also observed that this recommendation can have negative effect on the engine longevity if it is not modified to support this solution [Bishop et al., 2007]. This solution is especially useful in urban road. The fuel economy is from 5% to 10%. Another example of control system is Nissan Eco-Pedal. The solution consists of installing a servo to the throttle pedal. Servo adds strength to the throttle pedal, depending on the intensity with which the conductor is pressing it. The strength appears when the driver accelerates with an intensity exceeding a threshold, from which the system estimated that fuel consumption will be high. The savings achieved by this solution is from 5% to 10% of fuel. However, many drivers do not find comfortable this system and switched it off [CNET, 2014]. 2.4 User Interface When designing an in-vehicle information system it is important to ensure that the recommendations and the method to convey these tips do not negatively affect cognitive processing and driving performance [Peissner et al., 2011]. A very important research topic in eco-driving are communication between the user and the driving assistant. Many researches analyze what information should be displayed to the user. For example, in [Man et al., 2012], authors conducted a survey online to find out what is the most demanded information according to the user motivation. The conclusions were that user interface should show the amount of money that has been saved in the first place. Drivers also showed interest in the amount of fuel spent on each trip. However, the greenhouse emissions were not useful in order to improve the driving from the point of view of energy consumption. Other authors try to guess which are the best ways to interact with the user. In several works, they concluded that the best way to communicate with the user is using the voice. However, for this to be true is necessary to ensure compliance with the following requirements [Peissner et al., 2011]: The speech synthesizer has to issue a clear voice and humanlike. The speech recognizer needs to be precise. 52 Dialogues should not be complex. The distractions that cause the screens can be mitigated if the driver does not have to take the eyes off the road. Google Glass or Garmin HUB [Google Glass, 2013] [Garmin HUB, 2014] are two proposals that allow the user to receive visual and to pay attention on the road. 3 Eco-driving assistant The system is continuously monitoring the environment, the vehicle and nearby cars. The information that the system acquires the environment consists of: vertical static traffic signs, traffic, weather conditions, slope and anomalous events. Static traffic signals are obtained using the camera from an Android Mobile Device and the Viola&Jones algorithm adapted for the recognition of traffic signs. The traffic state and weather conditions are achieved through web services, although we could alternatively use the information provided by other vehicles. Anomalous events that affect fuel consumption are detected by vehicles combining fuzzy logic with J48 algorithm. J48 is the implementation of the c4.5 algorithm on Weka. Road slope is estimated using the geographical coordinates (latitude, longitude and height) of two consecutive points. Then the data are analyzed using different algorithms of artificial intelligence: EM Clustering Algorithm: It retrieves information based on a certain criterion [Pumrin and Dailey, 2003]. For example, vehicle telemetry where fuel consumption provided by the manufacturer is 6 l/100 km. Fuzzy logic: It is used to evaluate the driving from the point of view of energy efficiency [Zadeh, 1965]. Genetic Algorithm: It determines the optimal average speed for each segment of a route. J48 Algorithm: It detects unusual events such as traffic accidents or traffic jams based on vehicle telemetry. Viola & Jones algorithm: It is used to recognize static vertical recognize traffic signs [Viola and Jones, 2011]. Multilayer Perceptron Neural Network: It allows to estimate the acceleration for a segment of the route taking into account the average speed in combination with the genetic algorithm [Widrow and Hoff, 1969]. The result of data analysis is a set of eco-driving tips and feedback to motivate the user in order to save fuel. Eco-driving advice can be classified into two groups: Preventive tips and post-action tips. Eco-driving advice based on anticipation save a lot of fuel because it prevents the user from making inefficient actions. The key from eco-driving is anticipation to reduce the frequency and intensity of the accelerations (positive and negative). On the other hand, post-action tips warn the user not to make mistakes again in the driving. Preventive Tips: Optimal Average Speed: The system shows the optimal average speed for each segment of the route. This speed minimizes the frequency and intensity of the accelerations (positive and negative). Speed pattern: Solution indicates the recommended speed second-by-second for smoothing the accelerations or informs the user about what is the most efficient close driver in order to he or she imitates their behavior. Traffic Sign Detection and Optimal Deceleration: The proposal employs an expert system that, based on the detection or previous knowledge of certain types of traffic signals, proposes a method to reduce fuel consumption by calculating optimal deceleration patterns, minimizing the use of braking. Anomalous Events On Road: The fuel consumption increases when there are incidents on the road as traffic jams or weather conditions are adverse. If the driver knows in advance the incident, he may change the route or adapt the vehicle speed in order to avoid having to brake abruptly. Inefficient regions: During testing, we have observed that drivers tend to make mistakes at the same places from the point of view of energy efficiency in usual routes. The assistant predicts if the driver is going to make mistakes and notifies him or her if so. The prediction is based on the driver behavior shown close to the inefficient region and the road state. Post-Actions Tips: Real-Time Advice: We can obtain in “real time” the telemetry through the vehicle diagnostic port (OBD) [OBD2 Adapter, 2012] [Godavarty et al., 2000]. Therefore, we can detect when the driver violates any of the eco-driving rules. For example, if the driver brakes sharply. In these cases, the solution alerts the user in order to avoid that her or she makes the same mistake again. Eco-driving tips based on other users: the assistant compares the driving with other users who have previously made the same route under similar conditions and extract tips to improve the driving style. In the eco-driving is essential to encourage and motivate the user to apply the tips and continue using the assistant. Our proposal evaluates the driver when it completes the trip from the point of view of energy consumption and assigns a score to him or her. User scores can be shared with friends and other users establishing a ranking. The gamification techniques are designed based on the goal of obtaining the maximum score. Gamification is the use of game design elements in non-game contexts such as learning environments. The idea is to use concepts from games like: the challenge, the competitiveness and progression in order to motivate the user for improving the driving style. Score is calculated using a fuzzy logic system. This method allows us to simulate the human knowledge when 53 carrying out certain tasks such as driving. The objective is to model the behavior of an efficient driver. In the model, a set of input variables is involved and the output is the estimation of energy efficiency of a driver. The output variable is a number between 0 and 10. A high value means that the driver is applying the basic rules of eco-driving thoroughly. The proposed solution is able to evaluate the driver's driving style based on a knowledge database obtained by observing telemetry samples. On the other hand, we have defined a set of achievements with the purpose of motivate the driver to use the system frequently and in order to allow him to get familiar with ecological challenges. As an example, the user unlocks an achievement when he completes a trip without accelerating sharply. Achievements are a traditional gamification method used to accomplish a certain behavior or to compare the performance of users. Achievements do not normally imply monetary compensation, but they are based on an emotional reward. 4 Conclusions In this paper, we have presented an eco-driving assistant to encourage drivers to change their driving habits. The proposal is continuously monitoring the environment, the vehicle and nearby cars. The captured data are analyzed using different algorithms of artificial intelligence. The result is a set of eco-driving tips and feedback to motivate the user in order to save fuel. The main contribution of this work is that the tips are adapted taking into account the driver profile (aggressive, normal o eco-friendly), the vehicle features, and the environment conditions. It is important adjust the tips for each type of user in order to avoid the discouragement of the driver. Otherwise, the user may not use the proposal. The thresholds of the eco-driving rules should not be the same for a normal driver than for an aggressive driver. On the other hand, the impact of accelerations, decelerations, vehicle speed and engine speed depend on the vehicle characteristics. For example, if the vehicle is old, the maximum speed from which the fuel consumption grows exponentially will be lower than in modern vehicles that have aerodynamic improvements. Finally, the driving style is also influenced by the environment. On an urban road, it is normal that the diver has to increase the frequency and intensity of the accelerations (positive and negative) in comparison with a highway. This increase happens due to traffic signs that force the driver to stop or the presence of other vehicles or pedestrians using the road. In this case, the thresholds of the eco-driving rules should be more permissive. Acknowledgments The research leading to these results has received funding from the “HERMES-SMART DRIVER” project TIN201346801-C4-2-R within the Spanish "Plan Nacional de I+D+I" under the Spanish Ministerio de Economía y Competitividad and from the Spanish Ministerio de Economía y Competitividad funded projects (co-financed by the Fondo Europeo de Desarrollo Regional (FEDER)) IRENE (PT-2012-1036370000), COMINN (IPT-2012-0883-430000) and REMEDISS (IPT-2012-0882-430000) within the INNPACTO program. References [af Wåhlberg, 2007] A. af Wåhlberg, «Long-term effects of training in economical driving: Fuel consumption, accidents, driver acceleration behavior and technical feedback,» International Journal of Industrial Ergonomics, vol. 37, nº 4, pp. 333-343, 2007. [André, 1996] M. André, «Driving cycles develop-ment: Characterization of the methods,» SAE Technical Papers Series 961112, 1996. [Barbe and Boy, 2006] J., Barbé and G. Boy, “On-board system design to optimize energy management,” Proceedings of the European Annual Conference on Human DecisionMaking and Manual Control (EAM'06), Valenciennes, France, September 27-29, 2006. [Bishop et al., 2007] J. Bishop, A. Nedungadi, G. Ostrowski y B. Surampudi, «An Engine Start/Stop System for Improved Fuel Economy,» SAE Technical Paper, 2007. [Caiazzo et al., 2013] F. Caiazzo, A. Ashok, Ian A. Waitz, Steve H.L. Yim, and Steven R.H. Barrett, “Air pollution and early deaths in the United States. Part I: Quantifying the impact of major sectors in 2005”, Atmospheric Environment, Volume 79, November 2013, Pages 198-208, ISSN 1352-2310. [CNET, 2014] «CNET: Eco-Pedal Nissan Infiniti M56 Sedan,» [En línea]. Available: http://reviews.cnet.com/2300-10863_7-10015587-22.html. [Last access: 15 01 2014]. [Dardanelly et al., 2012] A. Dardanelli, M. Tanelli, B. Picasso, S. Savaresi, O. di Tanna y M. Santucci, «A Smartphone-in-the-Loop Active State-of-Charge Manager for Electric Vehicles,,» Mechatronics, IEEE/ASME Transactions on, vol. 17, nº 3, pp. 454-463, 2012. [Ericsson, 2001] E. Ericsson, «Independent driving pattern factors and their influence on fuel-use and exhaust emission factors,» Transportation Research Part D: Transport and Environment, nº 6, pp. 325-345, 2001. [Garmin HUB, 2014] «Garmin HUB,» [On Line]. Available: https://buy.garmin.com/en-US/US/prod155059.html. [Last access: 16 01 2014]. [Garmin, 2014] «Garmin Mechanic App,» [On Line]. Available:https://play.google.com/store/apps/details?id=com.garmin.android.apps.mech&hl=es. [Last access: 2014 01 15]. [Godavarty et al., 2000] Godavarty, S.; Broyles, S.; Parten, M., "Interfacing to the on-board diagnostic system," Vehicular Technology Conference, 2000. IEEE-VTS Fall VTC 2000. 52nd , vol.4, no., pp.2000,2004 vol.4, 2000. doi: 10.1109/VETECF.2000.886162. 54 [Google Glass, 2013] «Google Glass,» [On Line]. Available: http://www.google.com/glass/start/. [Last access: 20 12 2013]. [Haworth and Symmons, 2001] N. Haworth and M. Symmons, «The relationship between fuel economy and safety outcomes,» Monash University Accident Research Centre, 2001. [Hiraoka and Terakado, 2009] T. Hiraoka, Y. Terakado, S. Matsumoto y S. Yamabe, «Quantitative evaluation of ecodriving on fuel consumption based on driving simulator experiments.,» de 16th World Congress on Intelligent Transport Systems, 2009. [Honda, 2014] «Honda Eco-Assist,» [On Line]. Available: http://automobiles.honda.com/spanish/accord-sedan/ecoassist.aspx. [Last access: 15 01 2014]. [Fomunung et al., 1999] I. Fomunung, S. Washington y R. Guensler, «A statistical model for estimating oxides emissions from light duty motor vehicles,» Transportation Research Part D: Transport and Environment, vol. 4, nº 5, pp. 333-352, 1999. [Isler et al., 2010] R. Isler, S. N.J. and S. J., «Evaluation of a sudden brake warning system: Effect on the response time of the following driver,» Applied Ergonomics, vol. 41, nº 4, pp. 569-576, 2010. [Johansson et al., 2003] H. Johansson, P. Gustafsson, P. Henke y M. Rosengren, «Impact of ecodriving on emissions,» de 12th Symposium Transport and Air Pollution Conference, Avignon, 2003. [Hedges and Moss, 1996] P. Hedges and D. Moss, «Costing the effectiveness of training: case study 1 - improving Parcelforce driver performance,» Industrial and Commercial Training, vol. 28, nº 3, pp. 14-18, 1996. [Koshinen, 2008] O. H. Koskinen, “Improving vehicle fuel economy and reducing emissions by driving technique,” Proceedings of the15th ITS World Congress, New York, Nov 15-20, 2008. [Man et al., 2012] W. Y. Man, J. Brie, B. Vam Arem and S. Mizobuchi, «User needs in green its: the results of a questionnaire survey on Dutch and Japanese drivers,» International Journal of Intelligent Transportation Systems Research, vol. 10, nº 2, pp. 47-55, 2012. [OBD2 Adapter, 2012], URL: http://www.scantool.net. [Last access: May 2014]. [Onoda, 2009] T. Onoda, «lEA policies-G8 recommendations and an afterwards,» vol. 37, nº 10, 2009. [Peissner et al., 2011] M. Peissner, V. Doebler y F. Metze, «Can voice interaction help reducing the level of distraction and prevent accidents? Meta-study on driver distraction and voice interaction,» NUNCE, 2011. [Pumrin and Dailey, 2003] Pumrin, S.; Dailey, D.J., "Vehicle image classification via expectation-maximization algorithm," Circuits and Systems, 2003. ISCAS '03. Proceedings of the 2003 International Symposium on , vol.2, no., pp.II-468,II-471 vol.2, 25-28 May 2003. doi: 10.1109/ISCAS.2003.1206011 [Rolim et al., 2003] C. C. Rolim, P. C. Baptista, G. O. Duarte y T. L. Farias, «Impacts of On-board Devices and Training on Light Duty Vehicle Driving Behavior,» Procedia - Social and Behavioral Sciences, vol. 111, pp. 711-720, 2014. [Ryosuke and Yasushide, 2010] A. Ryosuke and N. Yasuhide, «Development of a system to promote ecodriving and safe-driving,» de Smart Spaces and Next Generation Wired/Wireless Networking: Third Conference, 2010. [Torque, 2014] «Torque,» [On-Line]. Available: http://torque-bhp.com/. [Last access: 15 01 2014]. [Trommer and Höltl, 2011] S. Trommer y A. Höltl, «Perceived usefulness of eco-driving assistance systems in Europe,» Intelligent Transport Systems, IET, vol. 6, nº 2, pp. 145-152, 2011. [Tulusan et al., 2011] J. Tulusan, L. Soi, J. Paefgen, M. Brogle y T. Staake, «"Eco-efficient feedback technologies: Which eco-feedback types prefer drivers most?,» de IEEE International Symposium on a World of Wireless, Mobile and Multimedia Networks (WoWMoM), 2011. [Van Der Laan et al., 1997] J. D. Van Der Laan, A. Heino y D. De Waard, «A simple procedure for the assessment of acceptance of advanced transport telematics,» Transportation Research Part C: Emerging Technologies, vol. 5, nº 1, pp. 1-10, 1997. [Van der Voort et al., 2001] M. van der Voort, M. Dougherty y M. van Maarseveen, «A prototype fuel-efficiency support tool,» Transportation Research Part C: Emerging Technologies, vol. 9, nº 4, 2001. [Van Mierlo et al., 2004] J. Van Mierlo, J. Maggetto, E. Van Burgwal y R. Gense, «Driving style and traffic measuresinfluence on vehicle emissions and fuel consumption,» Proceedings of the Institution of Mechanical Engineers, Part D: Journal of Automobile Engineering, vol. 218, nº 1, pp. 43-50, 2004. [Viola and Jones, 2011] P. Viola and J. Michael, “Robust Real-time Object Detection,” Second international workshop on statistical and computational theories of vision – modeling, learning, computing, and sampling, Vancouver, 2001. [Widrow and Hoff, 1969] B. Widrow and M. E. Hoff, “Adaptive switching circuits,” WESCOM Conv. Rec., pt. 4, pp. 96-140, 1960. [Zadeh, 1965] L. Zadeh, «Fuzzy sets,» Information and Control, vol. 8, nº 3, pp. 338-353, 1965 55 La formación a través de dispositivos móviles. Diseño y evaluación de contenidos y actividades formativas a través de m-learning Alfonso Cueto Crespo1 Soria Morillo, Luis Miguel2 Álvarez García, Juan Antonio3 1 Scientific Computing Center of Andalusia (CICA) Economy, Innovation and Science Counseling Andalusia, Spain acueto@us.es 2 Dept. of Languages and Informatics Systems University of Seville Seville, Spain lsoria@us.es 3 Dept. of Languages and Informatics Systems University of Seville Seville, Spain jaalvarez@us.es Abstract El porcentaje de alumnos que acaban un curso online es inferior al 20% (Liyanagunawardena, Dropout: MOOC participants’perspective., 2014) por lo que proponemos una aplicación móvil que de manera automática reconozca el contexto del usuario y le notifique las lecciones que podría realizar en dicho contexto, por lo que esperamos aumentar dicho porcentaje y facilitar la realización de los lecciones. Keywords: MOOC, Activity Recognition, m-learning, computacion ubicua móviles (Cuadrado Cordero & Soria Morillo, 2013). Teniendo en cuenta la tendencia y popularidad de los cursos online (MOOC) queremos unirla con computación ubicua y poder ofrecer al usuario una nueva experiencia de aprendizaje en la que el dispositivo móvil le ofrezca el material al usuario en función de su actividad/situación. Para este fin nos hemos basado en tecnologías de Google, gestionadas desde una aplicación Android y sobre un curso en Moodle. En la siguiente ilustración se puede observar a grandes rasgos el flujo de trabajo de la aplicación. 1. Introducción Desde hace unos años se ha visto un incremento en los alumnos que se matriculan en cursos online por internet, esto en parte es debido a que al no tener ningún requerimiento muchos se apuntan por el mero hecho de la curiosidad cosa que provoca en algunos casos índices de finalización muy bajos ya que muchos acaban abandonándolos, en otros se debe a otros factores que hacen que el alumno pierda el interés por el curso. Por otro lado durante la última década, la tecnología ha creado un nuevo campo en el desarrollo de software, conocido como la computación ubicua, gracias a la mejora y ampliación de los sensores integrados. Estos sensores se han integrado con éxito en la vida diaria del usuario común, usando dispositivos como teléfonos Ilustración 1: flujo de funcionamiento 1. 2. 3. Cuando el dispositivo detecta un contexto adecuado manda un mensaje por GCM (Google Cloud Message) al servidor de peticiones. Este con la información del mensaje original hace una petición a Moodle. Moodle responde con las lecciones disponibles para dicho usuario en ese contexto concreto. 56 4. El servidor responde con un mensaje por GCM al dispositivo con toda la información que necesita para realizar el ejercicio. 2. Nuestra Propuesta Para ello estamos desarrollando una aplicación móvil en Android que gracias al reconocimiento del contexto pueda sugerirle al alumno las lecciones que podría realizar paralelamente durante dicho contexto, dándole la opción de poder realizar las lecciones sin que la falta de tiempo o la situación en la que se encuentra sea un inconveniente. 3. Conclusiones Esperamos poder brindar una nueva experiencia de aprendizaje en los cursos online en la que el dispositivo móvil sepa que lección debes realizar en función del contexto en el que se encuentre el alumno, para de este modo facilitar la realización y aumentar el porcentaje de finalización de los cursos. 4. References [1] Dropout: MOOC participants’perspective. Liyanagunawardena, T. R., Parslow, P. and Williams, S. 2014. [2] A proposal on an energy-saving policy on context based system. Cuadrado Cordero, Ismael y Soria Morillo, Luis Miguel. 2013. 57 Towards A Fuzzy Colour Descriptor Sensitive to the Context Zoe Falomir∗ Universität Bremen Vivien Mast Universität Bremen Daniel Couto Vale Universität Bremen Lledó Museros Luis Gonzalez-Abril Universitat Jaume I Universidad de Sevilla Abstract In order to categorise colour coordinates into colour names with a degree of believing, a Fuzzy Colour Descriptor (FCD) based on the Hue Saturation and Lightness colour space is presented. This FCD is intended to manage the context on colour naming in order to generate suitable referring expressions which could approximate human perception and enhance human-machine communication. 1 Introduction Colour perception is very subjective since there are colours which may be named differently depending on the person who refers to them. For example, the cloth in Figure 1 may be named as the green or yellow cloth. Figure 1: The green cloth or the yellow cloth? Depending on the person’s perception. There are other cognitive effects in colour perception, such as sensitivity to brightness or/and colour context [Lotto and Purves, 1999], which may cause conceptual mismatch and communication failure between humans and machines. Examples of these effects are shown in Figure 2. There is also empirical evidence which confirms that object colour perception changes with change in illumination and background [Helson, 1938]. Spranger and Pauw [2012] show that overlapping, graded colour categories can improve the chances of communicative success under circumstances of perceptual and conceptual deviation. Therefore, providing a parameterised model ∗ Correspondence to: Zoe Falomir, Cognitive Systems (CoSy), FB3 - Informatics, Universität Bremen, P.O. Box 330 440, 28334 Bremen, Germany. E-mail: zfalomir@informatik.uni-bremen.de (a) (b) Figure 2: Examples of: (a) context sensitivity of colour perception: the colour of the X is the same in both parts; and (b) context sensitivity of brightness perception: the colour of the small square is the same in both parts. for colour naming allows the adaptation of the system’s usage of colour terms to the idiosyncrasies of user groups or individuals. A colour-naming model can be parameterised in a specific way, so that the system can adapt to a specific type of user [Museros et al., 2014; Soto-Hidalgo et al., 2010]. However, when two users need to communicate, they need to agree on a colour name, and having a range of grade possibilities for the same colour coordinates facilitates common grounding and concept alignment through dialogue. In this paper, a Fuzzy Colour Descriptor (FCD) based on Hue Saturation and Lightness (HSL) colour space is presented for categorising colour coordinates into colour names with a degree of believing. HSL colour space is used because, according to Palmer [1999] and to Sarifuddin and Missaoui [2005], its topological structure is intuitive to be divided into intervals of values corresponding to colour names. This fuzzy colour model is defined in general and parameterised as a baseline using data of a collection of colour data, coming from previous experiments [Falomir et al., 2013]. However it is suitable of adaptation to other experimental results on other populations. The context of communication is managed by this fuzzy colour model in combination with the Probabilistic Reference And GRounding mechanism (PRAGR) [Mast and Wolter, 2013] which, based on the degrees of believing obtained evaluates discriminatory power and appropriateness of referring expressions. 58 2 Related Work In the literature, other fuzzy colour descriptors have been previously defined on other colour models: (i) an approach for computational colour categorisation and naming based on the CIE Lab colour space and fuzzy partitioning was formulated by Menegaz et al. [2007]; (ii) fuzzy colour categories were defined based on the Musell Colour Solid and the HCL colour space and similarity values based on the Fuzzy C-Means to compare fuzzy colour categories were defined by Seaborn et al. [2005]; (iii) an approach to automatically design customised fuzzy colour spaces on any euclidean crisp space was proposed by Soto-Hidalgo et al. [2010], they also defined three fuzzy colour spaces on RGB using the colour sets in the ISCC-NBS colour naming system as a baseline. All these previous works provide evidence for the effectiveness of applying fuzzy methods for colour naming. However, in the literature, very few approaches manage the context for colour naming, only the work by Meo et al. [2014] use uncertain boundaries of colour terms in their system, which can generate appropriate colour terms in referential situations for discriminating similar colour patches. The FCD presented in this paper is combined with PRAGR [Mast and Wolter, 2013] in order to solve vague colour references in human-machine interaction taking into account the context of the information. To our knowledge, there are no contextually aware colour models that have been demonstrated to function within the context of generating and resolving arbitrarily complex referring expressions with different kinds of properties and relations. 3 A Fuzzy Colour Descriptor (FCD) The concept of fuzzy set was introduced by Zadeh [1965] as a ‘class’ with a continuum of grades of membership defining a methodology for translating the numerical data obtained from the world into linguistic categories with a degree of believing which can be given a meaning and used for reasoning. Let us define a fuzzy set as a pair (F zSet, µF zSet ) where F zSet is a set and µF zSet : F zSet → [0, 1] ∈ <. For a finite set F zSet = {x1 , ..., xn }, for each x ∈ F zSet, a µF zSet (x) is obtained and called the grade of membership of x ∈ (F zSet, µF zSet ). Let x ∈ F zSet. Then x is called not included in the fuzzy set (F zSet, µF zSet ) if µF zSet (x) = 0.0, x is called fully included if µF zSet (x) = 1.0, and x is called fuzzy member if 0.0 < µF zSet (x) < 1.0. From the HSL coordinates, a Fuzzy Colour Reference System is defined as: FzCRS = {uH, uS, uL, CF zSet1..5 } where uH is the unit of Hue, uS is the unit of Saturation, uL is the unit of Lightness in the HSL colour space (Figure 3); CF zSet1..5 refers to the selected colour names and the fuzzy sets related to them, as follows: CF zSet1 = {(G1 , µG1 )), ..., (Gi , µGi )), ..., (G` , µG` )} where ` colour names are defined for the grey scale in CF zSet1 by fuzzy sets. It is worth noting that the parameters ` depend on the granularity that an expert needs in each Figure 3: The Fuzzy Colour Descriptor (FCD) build on the HSL colour space. scenario. Henceforth, ` = 5 have been chosen as a baseline. CF zSet2 = {(R1 , µR1 ), ..., (Rj , µRj ), ..., (Rr , µRr )} where r colour names are defined for the rainbow scale in CF zSet2 and are considered the more saturated or stronger ones. In QCIN T2 , their saturation can take values between rusM IN and 100, whereas their luminance can take values between rulM IN and rulM AX . Thus, the different values of hue (ruhr ) can take values between 0 and 360 and determine the colour names defined for this set. Note that the parameters r depend on the granularity that an expert needs in each scenario. Henceforth, r = 5 has been chosen as a baseline. CF zSet3 = {pale- + CF zSet2 } where r pale colour names are defined in CF zSet3 by adding the prefix pale- to the colours defined for the rainbow scale, CF zSet2 . The colour names defined in CF zSet3 have the same interval values of hue as rainbow colours (CF zSet2 ). The lightness intervals also coincide, but they differ from rainbow colours in their saturation, which can take values between gusM AX and rusM IN . CF zSet4 = {light- + CF zSet2 } CF zSet5 = {dark- + CF zSet2 } where r light and dark colour names are defined in CF zSet4 and CF zSet5 , respectively, by addition of the prefixes darkand light- to the colour names in the rainbow scale (CF zSet2 ). The intervals of values for dark and light colour sets, CF zSet4 and CF zSet5 , take the same values of hue as rainbow colours in CF zSet2 , respectively. The saturation intervals also coincide, but the lightness coordinate (UL) differs and determines the luminosity of the colour (dark or light) taking values between rulM AX and 100 for light colours and between rul and rulM IN for dark colours. 59 4 Parameterising the FCD • In all other cases, the interval values in HSL correspond to wedges in the Cartesian axis (see Figure 4). Therefore, for the colours in the rest of scales, it is holds that: 1 (hc , sc , lc ) where hc = h0 +h , sc = sr sin(hc ), and 2 1 lc = l0 +l 2 q 2 2 s0 +s1 0 (hr , sr , lr ) where hr = h1 −h , sr = and lr = 2 2 The FCD is parameterised as a baseline using data of a collection of colour intervals (each one assumed to be fully representative of a certain colour term) coming from previous experiments [Falomir et al., 2013; Falomir et al.]. However, those crisp intervals have been adapted to a more intuitive definition where values are overlapped. Colours in the grey scale, CF zSet1 , have uncertain boundaries in the dimension of lightness, such as the prototypical colours, CF zSet2 , in the dimension of hue. Moreover, prototypical colours are defined in the whole range of lightness, because a light-red or a darkred colour is considered also red. As a result, the intervals defining light/dark colours are overlapping also prototypical colours. Table 1 shows the values used for parameterising the FCD. Inspired by to other works in the literature [Palmer and Schloss, 2010], this model has also defined some equivalent colours such as: dark-orange≡brown, dark-yellow≡olive, pale-red≡pastel-pink according to the Inter-Society Colour Council - National Bureau of Standards (ISCC-NBS1 ). l1 −l0 2 The exception is the colour red, which is divided into two parts in order to cover the starting and ending part of the central circle in HSL. For the first red, hc = h0 = 0 and hr = h1 − h0 , whereas for the second red, hc = h1 = 360 and hr = h1 − h0 . lr h1 h0 s = 100 s = min 5 The FCD Membership Functions Let us define a fuzzy degree of believing for each colour defined on HSL internals: [h0 , h1 ] × [s0 , s1 ] × [l0 , l1 ] ≡ Br (h, s) × Blr (lc)2 Let us define a three-dimensional Radial Basis Function (RBF) as µ(h, s, l): µ(h, s, l) = e h−hc 2 s−sc 2 l−lc 2 −1 2 (( hr ) )+( sr ) )+( lr ) )) (1) where (hc , sc , lc ) are the centroids of the intervals in hue (h), saturation (s) and lightness (l) for each defined colour and (hr , sr , lr ) are the amplitudes of those intervals or radius. Note that, from the spatial structure of the HSL colour space, it is obtained that: • In CF zSet1 , the interval values obtained in HSL coordinates correspond to cylinders in the Cartesian coordinate system. Therefore, for the colours in the grey scale, it is holds that: (hc , sc , lc ) where hc = sc = s0 = minsaturation and 1 lc = l0 +l 2 (hr , sr , lr ) where hr = sr = s1 = maxsaturation and 0 lr = l1 −l 2 As hc = sc and hr = sr , then (1) is independent of hue and it can be rewritten as: µ(h, s, l) = e s−sc 2 l−lc 2 −1 2 (( sr ) )+( lr ) )) (2) Note that for the colour black, lc = l0 = 0 and for the colour white, lc = l1 = 100. 1 http://tx4.us/nbs-iscc.htm (Accessed August 2014) 2 Note that, given an open interval (analogously for another kind of interval) of finite dimension, there are two main ways to represent it: from the extreme points as (a,b) (classical notation) or as an open ball Br (c) (Borelian notation) where c = (a + b)/2 (centre) and r = (b − a)/2 (radius). Figure 4: Wedges which determine the colours in the most saturated colour scale CF zSet2 , the pale scale CF zSet3 , the light scale CF zSet4 and the dark scale CF zSet5 . Table 2 shows the parameters used by the FCD, which applied to (1) generate the 3D-RBFs for obtaining the degree of believing for each colour name. Figure 5 shows the membership functions of the colours in the grey scale, CF zSet1 , taking into account the dimension of lightness. Figure 6 presents the membership functions of the prototypical colours, CF zSet2 , in the dimension of hue. Figure 7 shows the membership function of a prototypical colour, red, defined in the whole range of lightness, since light-red and dark-red colour are considered also red. Figure 8 show the membership functions obtained for any prototypical colour defined in the dimension of lightness or saturation, respectively. Note how the membership functions overlap as a result of the RBF parameters. Finally, Figure 9 shows the membership function of a prototypical colour (orange) depending on the amount of hue and the amount of saturation, considered together. 6 Normalizing the Grades of FCDs In order to grade the degrees of believing obtained for each colour descriptor (1, 2), they are normalised as follows: µ(h, s, l) (3) µ(h, s, l) = Pn i=1 µ(h, s, l) where the input variables are hue (h), saturation (s) and lightness (l) as the coordinates of the color in HSL and 60 P µ(h, s, l) is the total amount of certainties obtained for these HSL colour coordinates. 7 Table 3: FCDs obtained for each of the objects in the scenes in Figure 10. Probabilistic Reference And GRounding (PRAGR) Mechanism Based on the fuzzy degree of believing for different colour terms, the Probabilistic Reference and GRounding (PRAGR) mechanism can determine, in a given situation, the most appropriate referring expression to use for describing a particular object. Moreover, PRAGR can determine the most likely referent for a given description (see Mast and Wolter [2013] for a detailed description). The core concepts of PRAGR are Acceptability (Acc) and Discriminatory Power (DP ). The acceptability of a description D is the conditional probability P (D|x) that D will be accepted by the interlocutor as a description of object x. For simple properties, like colour terms, Acc can correspond to the fuzzy degree of believing obtained by the FCD presented here. For complex descriptions, belief scores are multiplied. Discriminatory Power is the probability P (x|D) that D discriminates x from its distractors. This value compares the acceptability of D for the target to its acceptability for distractors. For identifying the most likely referent of a given description, PRAGR selects the object for which D has the highest Acc. When generating referring expressions, PRAGR jointly maximises Acc and DP , selecting an expression that yields the best balance between providing an adequate description of an object per se, and a description that distinguishes it from the other objects in the context. The model parameter α determines the weighting of Acc, with a value of 0 indicating that Acc is ignored, and a value of 1 meaning that only Acc is considered, and DP is ignored. Values of 0.2 to 0.4 have been shown to yield good results. Scene 1 Scene 2 circle-up HSL(330,63,59), (red, 0.48), (pink, 0.75), (pale-red, 0.36), (pale-pink, 0.56), (light-red, 0.34), (light-pink, 0.54) (purple, 0.1), (dark-red, 0.072), (dark-pink, 0.11) HSL(201,100,30), (green, 0.12), (turquoise, 0.53), (blue, 0.59), (purple, 0.06), (dark-green, 0.08), (dark-blue, 0.05), (dark-turquoise, 0.05) circle-down HSL(8,59,61), (red, 0.9), (orange, 0.19), (pale-red, 0.27), (light-red, 0.54), (dark-red, 0.08), (light-orange, 0.08) HSL(5,56,64), (red, 0.93), (orange, 0.13), (pale-red, 0.32), (light-red, 0.63), (dark-red, 0.06), (light-orange, 0.06) square-up HSL(8,59,61), (red, 0.9), (orange, 0.19), (pale-red, 0.27), (light-red, 0.54), (dark-red, 0.08), (light-orange, 0.08) HSL(5,56,64), (red, 0.93), (orange, 0.13), (pale-red, 0.32), (light-red, 0.63), (dark-red, 0.06), (light-orange, 0.06) square-down HSL(330,63,59), (red, 0.48), (pink, 0.75), (pale-red, 0.36), (pale-pink, 0.56), (light-red, 0.34), (light-pink, 0.54) (purple, 0.1), (dark-red, 0.08), (dark-pink, 0.11) HSL(201,100,30), (green, 0.12), (turquoise, 0.53), (blue, 0.59), (purple, 0.06), (dark-green, 0.08), (dark-blue, 0.05), (dark-turquoise, 0.05) 8 Experimentation A proof-of-concept of the FCD is presented considering the scene examples in Figure 10. Table 3 shows the HSL coordinates and their degrees of believing obtained from the objects in the scenes. by PRAGR for the circle located down in Scene 1 in Figure 10. Table 4: Evaluation values of PRAGR for circle located down in Scene 1. (a) Scene-1 (b) Scene-2 Figure 10: Which colours do the circles and squares have? Are the red colours equal in both scenes? Table 4 presents the values of acceptability (Acc), discriminatory power (DC) and appropriateness (App) calculated Acc DP App red circle 0.9 0.65 0.72 orange circle 0.19 1.0 0.79 Description Table 4 shows how, in Scene 1, the term orange gets pre- 61 ferred over red for the circle located down. Even though red has a higher acceptability value, the potential acceptability of colour red for the distractor object circle-up (P (red|circleup) = 0.14) leads to a low discriminatory power, and thus a slight dispreference of the term, in favour of the less acceptable, but more discriminating orange. Table 5 shows the descriptions that PRAGR generates for the objects in both scenes with α = 0.26. As Table 5 shows the circle down is referred as orange in Scene 1, and as red in Scene 2, even though both have almost identical colour coordinate values. Table 5: Object descriptions generated by PRAGR for the scenes in Figure 10. Scene 1 Scene 2 circle-up pink circle blue circle circle-down orange circle red circle square-up orange square red square square-down pink square blue square 9 Conclusions and Future Work A Fuzzy Colour Descriptor (FCD) based on radial basis membership functions has been defined on the Hue Saturation and Lightness colour space and presented in this paper for categorising colour coordinates into colour names with a degree of believing depending on the context of communication. The FCD has been parameterised as a baseline using data of a collection of crisp colours, (each one assumed to be fully representative of a certain colour term) coming from previous experiments [Falomir et al., 2013]. However, it is suitable of adaptation to other experimental results on other psychological studies. The context of communication is managed by FCD+PRAGR, that is, in combination with the Probabilistic Reference And GRounding mechanism (PRAGR) [Mast and Wolter, 2013] which adapts the degrees of believing obtained to maximise discriminatory power and appropriateness of the referring expressions. As future work, we intend to compare the fuzzy colour descriptor proposed in this paper to other crisp colour models (i.e. QCD [Falomir et al., 2013]) in order to select the more effective descriptor for image retrieval in data bases based on linguistic, flexible queries made by users. We are also working on the automatic generation of linguistic descriptions of painters’ colour-palettes on the basis of colour information [Falomir et al.]. Acknowledgments Dr.-Ing. Zoe Falomir gratefully acknowledges the funding from the project COGNITIVE-AMI (GA 328763) by the European Commission through FP7 Marie Curie IEF actions and the support by the Universität Bremen and the in- terdisciplinary Transregional Collaborative Research Center SFB/TR8. Vivien Mast and Daniel Vale acknowledge the funding by the project I5-[DiaSpace] at the SFB/TR 8 Spatial Cognition Research Center and by the German Research Foundation (DFG). Dr. Luis Gonzalez-Abril acknowledges the funding by the the Deutscher Akademischer Austausch Dienst (DAAD) and the Andalusian Regional Ministry of Economy (project SIMON TIc-8052). Dr. Lledo Museros acknowledges the funding by the Spanish Ministry of Economy and Competitiveness (project TIN2011-24147), Generalitat Valenciana (project GVA/2013/135) and Universitat Jaume I (project P11B201329). References Z. Falomir, L. Museros, and L. Gonzalez-Abril. A model for colour naming and comparing based on conceptual neighbourhood. an application for comparing art compositions. Knowledge-based Systems. in press. Z. Falomir, L. Museros, L. Gonzalez-Abril, and I. Sanz. A model for qualitative colour comparison using interval distances. Displays, 34:250–257, 2013. H. Helson. Fundamental problems in color vision. i. the principle governing changes in hue, saturation, and lightness of non-selective samples in chromatic illumination. Journal of Experimental Psychology, 23(5):439–476, 1938. R.B Lotto and D. Purves. The effects of color on brightness. Nature Neuroscience, 2(11):1010–1014, 1999. V. Mast and D. Wolter. A probabilistic framework for object descriptions in indoor route instructions. In T. Tenbrink (eds.), editor, Spatial Information Theory, pages 185–204. 2013. G. Menegaz, A. Le Troter, J. Sequeira, and J. M. Boi. A discrete model for color naming. EURASIP J. Appl. Signal Process, Special Issue on Image Perception, pages 1–10, 2007. Timothy Meo, Brian McMahan, and Matthew Stone. Generating and resolving vague color references. In Verena Rieser and Philippe Muller, editors, Proceedings of SemDial 2014/DialWatt, pages 107–115, 2014. L. Museros, I. Sanz, L. Gonzalez-Abril, and Z. Falomir. Validating and customizing a colour naming theory. In Artificial Intelligence Research and Development, Frontiers in Artificial Intelligence and Applications, page in press. IOS Press, Amsterdam, 2014. S. E. Palmer and K. B. Schloss. An ecological valence theory of human color preference. Proceedings of the National Academy of Sciences, 107(19):8877–8882, April 2010. S. Palmer. Vision Science: Photons to Phenomenology. MIT Press, 1999. M. Sarifuddin and R. Missaoui. A new perceptually uniform color space with associated color similarity measure for contentbased image and video retrieval. In Multimedia 62 Information Retrieval Workshop, 28th annual ACM SIGIR conference, pages 3–7, 2005. M. Seaborn, L. Hepplewhite, and T. J. Stonham. Fuzzy colour category map for the measurement of colour similarity and dissimilarity. Pattern Recognition, 38(2):165–177, 2005. J. M. Soto-Hidalgo, J. Chamorro-Martinez, and D. Sanchez. A new approach for defining a fuzzy color space. In Fuzzy Systems (FUZZ), 2010 IEEE International Conference on, pages 1–6, July 2010. M. Spranger and S. Pauw. Dealing with Perceptual Deviation - Vague Semantics for Spatial Language and Quantification. In L. Steels and M. Hild, editors, Language Grounding in Robots, pages 173–192. Springer, 2012. L. Zadeh. Fuzzy sets. Information and Control, 8:338–353, 1965. 63 Table 1: HSL overlapping intervals for colour names. CF zSet1 CF zSet2 CF zSet3 CF zSet4 CF zSet5 Colour Name black dark-grey grey light-grey white red orange yellow green turquoise blue purple pink pale-red, pastel-pink pale-orange pale-yellow pale-green pale-turquoise pale-blue pale-purple pale-pink light-red light-orange light-yellow light-green light-turquoise light-blue light-purple light-pink dark-red dark-orange, brown dark-yellow, olive dark-green dark-turquoise dark-blue dark-purple dark-pink UH US [0, 360] [0, 20] (335, 360] ∧ [0, 20] (20, 50] (50, 80] (80, 160] (160, 200] (200, 260] (260, 300] (300, 335] (335, 360] ∧ [0, 20] (20, 50] (50, 80] (80, 160] (160, 200] (200, 260] (260, 300] (300, 335] (335, 360] ∧ [0, 20] (20, 50] (50, 80] (80, 160] (160, 200] (200, 260] (260, 300] (297, 335] (335, 360] ∧ [0, 20] (20, 50] (50, 80] (80, 160] (160, 200] (200, 260] (260, 300] (300, 335] UL [0, 20) [20, 30) [30, 50) [50, 75) [75, 100] (50, 100] (20, 80] (20, 50] (40, 100] (50, 100] (55, 100] (50, 100] (0, 40] 64 Table 2: Parameters of the radial basis functions (Ci , Si ) for the colour model. CF zSet1 CF zSet2 CF zSet3 CF zSet4 CF zSet5 Colour Name black dark-grey grey light-grey white red orange yellow green turquoise blue purple pink pale-red, pastel-pink pale-orange pale-yellow pale-green pale-turquoise pale-blue pale-purple pale-pink light-red light-orange light-yellow light-green light-turquoise light-blue light-purple light-pink dark-red dark-orange, brown dark-yellow, olive dark-green dark-turquoise dark-blue dark-purple dark-pink H (Ci , Si ) S (Ci , Si ) (180, 180) (10, 10) (0, 20) ∧ (360, 25) (35,15) (65,15) (120, 40) (180, 20) (230, 30) (280, 20) (317.5, 17.5) (0, 20) ∧ (360, 25) (35, 15) (65, 15) (120, 40) (180, 20) (230, 30) (280, 20) (317.5, 17.5) (0, 20) ∧ (360, 25) (35, 15) (65, 15) (120, 40) (180, 20) (230, 30) (280, 20) (317.5, 17.5) (0, 20) ∧ (360, 25) (35, 15) (65, 15) (120, 40) (180, 20) (200, 260] (280, 20) (317.5, 17.5) L (Ci , Si ) (0, 10) (25, 5) (40, 10) (62.5, 12.5) (100, 12.5) (70, 30) (50, 30) (25, 15) (70, 30) (75, 25) (75, 25) (75, 25) (20, 20) 65 µ(black, 0, 10) µ(dark grey, 25, 5) µ(grey, 40, 10) µ(light grey, 62.5, 12.5) µ(white, 100, 12.5) −1 x−Ci 2 2 ( Si ) 1 0.8 µ(x, Ci , Si ) = e 0.6 0.4 0.2 0 0 20 40 60 80 100 x Figure 5: Fuzzy colours in the grey scale in the ligthness dimension (L): CF zSet1 . µ(red, 0, 20) µ(orange, 35, 15) µ(yellow, 65, 15) µ(green, 120, 40) µ(turquoise, 180, 20) µ(blue, 230, 30) µ(purple, 280, 20) µ(pink, 317.5, 17.5) µ(red, 360, 25) µ(x, Ci , Si ) = e −1 x−Ci 2 2 ( Si ) 1 0.8 0.6 0.4 0.2 0 0 100 200 x 300 Figure 6: Fuzzy colours in one dimension (hue): CF zSet2 . µ(dark colour, 20, 20) µ(prototypical colour, 50, 30) µ(pale colour, 70, 30) µ(light colour, 75, 25) µ(x, Ci , Si ) = e −1 x−Ci 2 2 ( Si ) 1 0.8 0.6 0.4 0.2 0 −100 −50 0 50 x 100 150 200 Figure 7: Fuzzy colours in the dimension of lightness (L). 66 µ(grey colour, 10, 10) µ(prototypical/light/dark colour, 70, 30) µ(pale colour, 25, 15) µ(x, Ci , Si ) = e −1 x−Ci 2 2 ( Si ) 1 0.8 0.6 0.4 0.2 0 −100 −50 0 50 x 100 150 200 Figure 8: Fuzzy colours in the dimension of saturation (S). Green(x) Y ellow(x) P 1 Orange(x) Red(x) Saturation(x) 0.5 0 0 20 100 40 120 Orange(h, s) 80 60 x1 0.4 60 80 40 100 x2 0.2 20 120 0 Figure 9: Radial Basis Function in two dimensions (hue and saturation) for the colour orange. 0 67 ¿Es eficiente apagar máquinas en un centro de datos? D. Fernández, A. Fernández-Montes, L. González Abril, Juan A. Ortega Universidad de Sevilla España damianfdezcerero@gmail.com, afdez@us.es, luisgon@us.es, jortega@us.es 1 Abstract Este trabajo tiene como objetivo demostrar los costes extra en los que las empresas proveedoras de sevicios de internet, administradores de sistemas y demás organismos que hacen uso de infraestructuras de clúster o centros de datos incurren debido al miedo que los equipos técnicos tienen a la pérdida de datos, merma de servicio o rotura de infraestructura hardware. Para demostrar esto, propondremos una función que cuantifica el coste de ese miedo, es decir, los costes asociados con la creencia de que apagar máquinas dentro de los centros de datos suponen más costes que el ahorro que se produce por el ahorro energético que conlleva. Partiendo de la hipótesis contraria a la creencia actual, esto es, que los beneficios de apagar un número determinado de veces las máquinas de los centros de datos que sean susceptibles de ello no es intrı́nsecamente malo, ni aumenta los costes totales del centro de datos, propondremos una solución teórica que deja en evidencia que siempre habrá una alternativa más eficiente que dejar las máquinas del centro de datos siempre encendidas aunque no estén ejecutando ninguna tarea. El número de veces que las máquinas deben apagarse dentro de los centros de datos dependerán de numerosos factores de la naturaleza de la infraestructura, del servicio que ofrezcan, las tareas que ejecuten, los datos que almacenen o las propiedades de los componentes hardware de los equipos. El objetivo es proponer una solución teórica que encaje perfectamente con la infraestructura tecnológica que da soporte a servicios para los que normalmente se utilizan centros de datos: analı́ticas y tareas que siguen el paradigma MapReduce que no se ejecutan en tiempo real. Esto se debe a que los sistemas de archivos distribuidos y computación paralela que los sustentan posibilitan que los datos no se pierdan ni corrompan y que la correcta ejecución de las tareas que llegan no se vea comprometida. Queda como trabajo futuro demostrar que según la naturaleza del servicio al que da soporte el clúster o centro de datos y que dependiendo del tipo de implementación que se de al sistema que implemente estas mejoras teóricas que se exponen en este trabajo esta solución de eficiencia energética es perfectamente asumible en entornos de tiempo real o de alta computación con la parametrización y sistemas de apoyo necesarios. Además, resulta de alto interés conocer la tasa de fallo en el hardware de comodidad que se usa en entornos de producción reales ası́ como los costes derivados de estos fallos. XVI Jornadas de ARCA 68 69 Introducción de una nueva caracterı́stica en el modelo Qualitative Shape Description (QSD) L. Gonzalez-Abrila , Ll. Muserosb , Z. Falomirc and I. Sanzb Applied Economics I Dept., Seville University, E-41018 Seville, Spain Engineering and Computer Science Dep., Universitat Jaume I, E-12071 Castellón, Spain c Cognitive Systems (CoSy) Research Group, University of Bremen, DE-28334 Bremen, Germany luisgon@us.es, museros@icc.uji.es, zfalomir@informatik.uni-bremen.de, isanz@uji.es a b Abstract El método para la descripción cualitativa de formas or Qualitative Shape Description (QSD) (Falomir, 2011) esta basado en un conjunto de puntos relevantes que delimitan la forma. Este artı́culo completa un poco más dicha descripción incorporando un valor numérico que cuantifica la importancia de cada uno de los puntos relevantes dentro de la forma, es decir, valora la relevancia de cada punto de forma. Para ello, se lleva a cabo: (1) un proceso de eliminación del punto considerado y (2) se cualifica cómo dicha eliminación afecta a la forma a partir de los puntos adyacentes. Además, se presenta un ejemplo ilustrativo sobre el método. 1 Introducción Este artı́culo se enmarca dentro de los trabajos realizados sobre descripción cualitativa de formas y colores de objetos de algunos de los autores con otros investigadores (Falomir, 2011; Falomir et al., 2011, 2012, 2013c,a,b). El objetivo planteado es ir un paso adelante y buscar un valor numérico para cada punto relevante que cuantifique la importancia que dentro de la forma tiene dicho punto. 2 Descripción cualitativa de formas La descripción cualitativa de forma, del inglés Qualitative Shape Description (QSD) analiza la pendiente de los pixels dentro de los bordes de los objetos (fronteras) y extrae los puntos relevantes de su forma (para una descripción más detallada ver (Falomir, 2011; Falomir et al., 2012)). Cada punto relevante P es descrito por un conjunto de cuatro caracterı́sticas las cuales pasamos a definir a continuación: La primera caracterı́stica es el tipo de conexión entre aristas (Edge Connection (EC)) que se describe a partir de las siguientes etiquetas: linea linea, si el punto P conecta dos rectas; linea curva, si P conecta una recta y una curva; curva linea, si P conecta una curva y una recta; curva curva, si P conecta dos curvas; o punto curvatura, si P es un punto de curvatura de una curva. Si EC no es un punto de curvatura, entonces la segunda caracterı́stica es el Ángulo (A), el cual se discretiza usando el sistema de referencia de ángulos (Angle Reference System) o ARS = {◦ , ALAB , AIN T } donde, ◦ (grados) indica la unidad de medida; ALAB ={muy agudo, agudo, recto, obtuso, muy obtuso} se refiere al conjunto de etiquetas consideradas; y AIN T ={(0, 40], (40, 85], (85, 95], (95, 140], (140, 180]} especifica los intervalos de valores de los ángulos relativo a cada etiqueta. Si EC es un punto de curvatura, la segunda caracterı́stica es el tipo de curvatura (TC) definida por el sistema de referencia de los tipos de curvaturas (Type of Curvature Reference System) o TCRS = {◦ , TCLAB , TCIN T }, donde ◦ indica la amplitud en grados del ángulo de curvatura de P ; TCLAB = {muy agudo, agudo, semicircular, plano, muy plano} se refiere al conjunto de etiquetas definidas; y TCIN T = {(0, 40], (40, 85], (85, 95], (95, 140], (140, 180]} especifica los intervalos de valores de los ángulos relativos a cada etiqueta. La tercera caracterı́stica considerada es la longitud comparada (L) definida a partir del sistema de referencias de longitudes (Length Reference System) o LRS = {UL, LLAB , LIN T }, donde UL o unidad de longitud comparada indica la relación entre la longitud del primer borde y la longitud del segundo borde que se conectan en el punto P ; LLAB = {muy corto (msh), medio (half length –hl), un poco corto (a bit shorter–absh), similar length (sl), un poco largo (a bit longer–abl), longitud doble (double length–dl), mucho más largo (ml)} indica el conjunto de etiquetas utilizadas para comparar longitudes; y LIN T = {(0, 0.4], (0.4, 0.6], (0.6, 0.9], (0.9, 1.1], (1.1, 1.9], (1.9, 2.1], (2.1, ∞)} especifica los intervalos de valores de las longitudes UL relativas a cada etiqueta. La última caracterı́stica considerada es la Convexidad (C) en el punto Pj . Si el punto Pj esta en la parte izquierda del segmento definido por Pj−1 y Pj+1 , entonces Pj es convexo; en otro caso se dice que Pj es cóncavo. Por tanto, la forma completa de un objeto es descrita por un conjunto de descripciones cualitativas de sus puntos relevantes como: [[EC1 , A1 | TC1 , L1 , C1 ], . . . , [ECn , An | TCn , Ln , Cn ]] donde n es el número total de puntos relevantes del objeto y Ai | TCi denota el ángulo o el tipo de curvatura que se presenta en el punto Pj . Un ejemplo de una descripción cualitativa de forma de 70 un objeto compuesto por 6 puntos relevantes los cuales conectan rectas y curvas y proporcionan diferentes longitudes y ángulos se muestra en la Figura 1. QSD (Objecto) = [ [linea_curva, obtuso, msh, convexo], [punto_curvatura, muy_plano, sl, concavo], [curva_linea, obtuso, ml, convexo], [linea_curva, agudo, msh, convexo], [punto_curvatura, muy_plano, sl, convex], [curva_linea, agudo, ml, convexo] ]. Figura 1: Un ejemplo de descripción cualitativa de un objeto curvilı́neo en una imagen digital. 3 Una medida de similitud a partir de una descripción cualitativa de formas Freksa (1991) definió que dos términos cualitativos (etiquetas) son vecinos conceptuales si se “puede pasar directamente de una etiqueta a otra a partir de una transformación continua sin pasar por ninguna otra etiqueta intermedia”. Por tanto, ángulos como agudo y recto son vecinos conceptuales ya que si se va aumentando el valor del ángulo este llega un momento que pasa a convertirse en ángulo recto. Ası́, se crean diagramas de vecinos conceptuales o Conceptual Neighbourhood Diagrams (CNDs) que se describen mediante grafos que contienen: (i) nodos que muestran las diferentes etiquetas, y (ii) caminos que conectan pares de nodos adyacentes que siguen una transformción continua a partir de la cual se pueden asignar pesos para establecer prioridades. Con las diferentes caracterı́sticas de la descripción cualitativa de formas pueden diseñarse grafos CND’s (Falomir, 2011) y a partir de éstos obtener matrices de disimilitud entre las diferentes etiquetas a partir del camino mı́nimo entre nodos. Como se vió anteriormente, la descripción cualitativa de la forma de un objeto se describe a partir de sus puntos relevantes (relevant points– RPs). Por tanto, para definir una medida de similitud entre formas, primero se define una medida de similitud entre puntos relevantes. Dados dos puntos relevantes, denotados por RPA y RPB , pertenecientes a la formas de dos objetos A y B, respectivamente, una similitud entre ellos, denotada por SimRP (RPA , RPB ), es definida como sigue: � ds(i) SimRP (RPA , RPB ) = 1 − wi (1) Ds(i) Por lo tanto, para comparar dos formas, A y B cuyos QSDs tienen el mismo número de puntos relevantes (denotado por m), la similud entre A y B, denotada por SimQSD(A, B), se calcula a partir de (4) como sigue: Fijado un punto relevante de A, RPAi , i = 1, · · · , m, se calcula la similitud entre los pares de puntos relevantes del conjunto � Ci = (RPAi , RPB1 ), · · · , (RPAm , RPBm+1−i ), (RPA1 , RPBm+2−i ), · · · � · · · , (RPAi−1 , RPBm ) A partir de estos conjuntos, se define la similitud entre las formas A y B como m 1 � SimQSD(A, B) = max SimRP (RPA , RPB ) i=1,···,m m (RPA ,RPB )∈Ci En general, si el número de puntos relevantes de las formas A y B son n y m, respectivamente, y suponemos sin pérdida de generalidad que n ≥ m, entonces hay n − m puntos relevantes de A sin su correspondiente punto relevante en B. De este modo, C es el conjunto de todas las formas posibles de combinar n − m puntos relevantes de A. De aquı́, si c ∈ C, una nueva forma Ac es considerada tal que Ac esta dada por todos los puntos relevantes de A menos los n−m puntos relevantes de A dados por la combinación c. Ahora Ac y B tienen el mismo número de puntos relevantes y se puede calcular la similitud entre ellos. A partir del conjunto C y las similitudes entre Ac y B, se define la similitud entre A y B como: m SimQSD(A, B) = max {SimQSD(Ac , B)} (2) n c∈C Hasta aquı́ se ha llevado a cabo un resumen de la teorı́a cualitativa de formas desarrollada en los artı́culos anteriormente mencionados. En la siguiente sección se aborda el problema descrito en este artı́culo y se da una solución a la ponderación de los puntos relevantes en la descripción cualitativa de formas. 4 Importancia del punto relevante Con el objetivo de ir detallando los desarrollos que siguen nos basamos en un ejemplo. Ası́ consideramos un objeto cuyo contorno esta delimitado por seis puntos según se puede observar en Figura 2. Para empezar, se ha elegido una forma 1 2 3 4 i∈I donde ds(i) y Ds(i) representan la disimilitud entre los puntos relevantes y la máxima disimilitud con respecto a las caracterı́sticas obtenidas a partir de las tablas de disimilitudes (I = {EC, A ∨ T C, C, L}, respectivamente). Además, los pesos wi asignados a cada caracterı́stica cumplen wEC + wA + wL + wC = 1, wA = wT C y wi ≥ 0. 6 5 Figura 2: Ejemplo de objeto a considerar. 71 la unidad, más se diferenciarán ambos objetos, en cuyo caso más importancia tendrı́a el punto eliminado. Por ello, para cada punto Pi del objeto en la Figura 2, se denota s2 = SimRP (RPF2 igura1 , RPF2 igura2 ) Figura 3: Objetos que resultan de la eliminación de un punto del objeto dado en Figura 2. donde los puntos relevantes conectan lı́neas con lı́neas. En la Figura 3 puede verse como afecta a la forma la eliminación de un punto de su contorno. Evidentemente no todos los objetos son iguales y visualmente se observan muchas diferencias entre ellos. Por tanto, la eliminación de un punto del contorno no afecta de igual manera a la forma en que vemos un objeto, y ésta es la motivación que nos lleva a cuantificar la importancia que tiene sobre la forma de un objeto todos y cada uno de sus puntos relevantes. El contorno dado en Figura 2 tienen 6 puntos relevantes, si consideramos el punto 1 (esquina superior izquierda) y eliminamos este punto nos queda el objeto de la Figura 4, el cual tiene 5 puntos. 2 3 y s6 = SimRP (RPF6 igura1 , RPF6 igura2 ) y se calcula el valor: u1 = 2 − (s2 + s6 ) Una vez calculados todos los ui , i = 1, · · · , 6 se procede a asignar un peso al punto relevante i como sigue: w i = �6 1 i=1 6 � wi ≥ 0 wi = 1, i=1 Por tanto, dada una forma A, compuesta por n puntos relevantes se define la importancia de cada punto relevente Pi , y se denota wi , como 4 1 w i = �n donde 5 Figura 4: Ejemplo del objeto caso de estudio donde se elimina el punto de la esquina superior izquierda. Si quisiésemos calcular la similitud entre estos dos objetos directamente a partir de la definición de similitud entre dos formas con diferente número de puntos relevantes (5), tendrámos que hacer un total de 6 · 5 · 5 = 150 cálculos de similitudes entre dos puntos relevantes, lo cual sera muy caro computacionalmente (si tuvisemos n puntos serı́a n · (n − 1) · (n − 1)). Por ello, una solución más económica consiste en calcular sólo la similitudes entre los puntos relevantes adjacentes al punto relevante suprimido, lo cual se reduce a dos cálculos de similitudes entre puntos relevantes exclusivamente ya que el resto es uno, puesto que su descripción cualitativa no ha cambiado. Ası́ entre las formas dadas en Figura 2 y Figura 4, habrı́a que calcular SimRP (RPF2 igura1 , RPF2 igura2 ) y SimRP (RPF6 igura1 , RPF6 igura2 ) Si no se hubiese suprimido el punto 1 en el objeto de la Figura 2, estas similitudes serı́an máximas (la unidad) ya que no cambiarı́a su descripción cualitativa. Por tanto, es natural suponer que cuanto más alejadas estén las similitudes de · ui con objeto de que todos los wi sumen la unidad y sean todos positivos, es decir, i=1 6 ui ui (3) · ui ui = 2 − (s(i−1)mod(n) + s(i+1)mod(n) ) La situación en general no es tan simple como la presentada con la Figura 2, ya que puede ocurrir que cuando se elimine algún punto del contorno del objeto, éste puede resultar teniendo una descripción cualitativa muy diferente, no sólo en los puntos adyacentes sino en el resto de la objeto, como puede verse en Figura 5. 1 2 3 4 5 6 Figura 5: Ejemplo de un objeto donde la eliminación de un punto de su contorno no es posible de realizar. En estos casos, es evidente que la eliminación del punto ha influido no solo en el contorno del objeto y en su interior, sino en su misma entidad ya que se ha convertido en 3 objetos diferentes conectados por un punto. Por lo tanto, el peso 72 1 2 3 References 4 5 Figura 6: Resultado de eliminar el punto 6 en Figura 5. Z. Falomir, L. Museros, J. A. Ortega, and F. Velasco. A model for qualitative colour description and comparison. In 25th International Workshop on Qualitative Reasoning (QR), co-located at the 22nd Joint International Conference on Artificial Intelligence (IJCAI), Barcelona, Spain, July 2011. que debemos asignarle a este tipo de cambios es el máximo posible, el cual se corresponde con el valor ui = 2, y de aquı́ el valor del correspondiente peso se sigue de la expresión (3). De esta forma, cada punto relevante tiene una nueva caracterı́stica en su definición, su peso wi y, por tanto, la forma completa de un objeto es determina por un conjunto de descriptores cualitativos más un peso de sus puntos relevantes como sigue: Z. Falomir, L. Museros, L. Gonzalez-Abril, M. T. Escrig, and J. A. Ortega. A model for qualitative description of images based on visual and spatial features. Computer Vision and Image Understanding, 116: 698–714, 2012. [[EC1 , A1 |TC1 , L1 , C1 , w1 ],. . . , [ECn , An |TCn , Ln , Cn ,wn ]] Z. Falomir, Ll. Musero, L. Gonzalez-Abril, and I. Sanz. A model for qualitative colour comparison using interval distances. Displays, 34: 250–257, 2013. donde n es el número total de puntos relevantes del objeto y Ai | TCi denota el ángulo o el tipo de curvatura que se presenta en el punto Pj . Esta nueva caracterı́stica puede ser tenida en cuenta a la hora de definir una nueva similitud entre puntos relevantes. Ası́, dados dos puntos relevantes, denotados por RPA y RPB , con pesos wA y wB pertenecientes a las formas de dos objetos A y B, respectivamente, una similitud entre ellos, denotada por SRP (RPA , RPB ), se define como sigue: SRP (RPA , RPB ) = wA · wB · SimRP (RPA , RPB ) (4) La utilización de estos pesos hace que se modifique la expresión para el cálculo de similitudes entre formas. SimQSD, como sigue: SQSD(A, B) = max {SimQSD(Ac , B)} (5) c∈C donde ya no es necesario multiplicar por el factor m n ya que a través de los pesos se cuantifica la importancia que cada punto relevante tiene en su correspondiente forma. 5 Trabajo futuro La continuación de este trabajo de investigación irá dirigida a la implementación de esta nueva caracterı́stica en todos los algoritmos que actualmente tenemos desarrollados y recalcular las similitudes sobre los objetos que hemos estado estudiando en otros trabajos previos. Agradecimientos Este trabajo esta subvencionado por el proyecto de investigación nacional Hermes (Healthy and Efficient Routes in Massive Open-Data Based Smart Cities-Citizen–TIN201346801-C4-1-R), por el proyecto Simon (Saving Energy by Intelligent Monitoring -P11-TIC-8052). Además de por la Comisión Europea a través de una beca FP7 Marie Curie bajo el proyecto COGNITIVE-AMI (GA 328763), the interdisciplinary Trasregional Collaborative Research Center Spatial Cognition SFB/TR 8, the Deutscher Akademischer Austausch Dienst (DAAD), Generalitat Valenciana (proyectoGVA/2013/135) y Universidad Jaume I (proyecto P11B2013-29). Z. Falomir, Ll. Musero, V. Castelló, and L. Gonzalez-Abril. Qualitative distances and qualitative image descriptions for representing indoor scenes in robotics. Pattern Recognition Letters, 38: 731–743, 2013. Z. Falomir, L. Museros, L. Gonzalez-Abril, and F. Velasco. Measures of similarity between qualitative descriptions of shape, colour and size applied to mosaic assembling. Journal of Visual Communication and Image Representation, 24: 388–396, 2013. Z. Falomir. Qualitative Distances and Qualitative Description of Images for Indoor Scene Description and Recognition in Robotics. PhD thesis, Universitat Jaume I (Spain) and Universität Bremen (Germany), November 2011. http://www.tdx.cat/handle/10803/52897. Christian Freksa. Qualitative spatial reasoning. In David M. Mark and Andrew U. Frank, editors, Cognitive and Linguistic Aspects of Geographic Space, NATO Advanced Studies Institute, pages 361–372. Kluwer, Dordrecht, 1991. 73 Conectando el Robot AIBO a ROS: Extracción de imágenes∗ Lucı́a Lillo-Fantova, Ricardo A. Téllez, Manel Velasco, Cecilio Angulo Universitat Politècnica de Catalunya · UPC BarcelonaTech Pau Gargallo 5. ESAII – Departament d’Automàtica, Barcelona, Spain 08028 lucialillofantova@gmail.com, tellezatwork@gmail.com, {manel.velasco, cecilio.angulo}@upc.edu Abstract En este documento se realiza una introducción al trabajo realizado con el robot AIBO, de Sony, para la obtención de imágenes, ası́ como su tratamiento con el objetivo que el robot navegue de forma autónoma mediante algoritmos de visión artificial. A nivel práctico, el principal punto de interés del artı́culo se centra en el entorno de programación, que se ha exportado al marco de ROS (Robot Operating System), de forma que se pueda hacer uso de la extensa biblioteca de algoritmos ya desarrollados en este entorno. 1. Introducción Este proyecto surge a partir de la voluntad de recuperar la funcionalidad del robot AIBO de Sony [Decuir et al., 2004], actualmente discontinuado en su producción y soporte, dentro de un entorno de programación actualizado y potente [Kertész, 2013], ası́ como dotarlo de las herramientas necesarias [Kolovrat, 2013] para proporcionarle la capacidad de navegar autónomamente en un entorno de trabajo mediante algoritmos de visión artificial. Como se muestra en la Figura 1, a partir del sistema operativo de AIBO, OPEN-R SDK, se ha integrado el entorno de programación URBI [Baillie, 2005a; 2005b], mediante el cual se enviarán datos a través de una estructura servidor/cliente entre el robot, servidor, y un ordenador externo, cliente. Los datos recibidos por el cliente deberán ser almacenados en un buffer temporal para su posterior tratamiento mediante algoritmos en OpenCV [Bradski, 2000], encargado de su transformación en imágenes interpretables por ROS [Quigley et al., 2009]. La voluntad de integrar ROS en el proyecto nace como una oportunidad de poder hacer uso de la gran cantidad de librerı́as y herramientas que incorpora este sistema operativo para facilitar la creación de aplicaciones robóticas. Entre ellas, nos ofrece herramientas como SLAM [Huang and Dissanayake, 2007; Riisgaard and Blas, 2005], SIFT [Flores and Braun, 2011] o RANSAC, de gran utilidad para el proyecto. ∗ Este trabajo ha sido financiado parcialmente por los proyectos de investigación PATRICIA (TIN2012-38416-C03-01) y EVENTS (DPI2010-18601), ambos financiados por el Ministerio de Economı́a y Competitividad del Gobierno de España. Figura 1: Estructura del modelo de integración del robot AIBO de Sony en ROS. A partir de aquı́ se definen una serie de objetivos concisos a seguir durante el desarrollo del trabajo. Comparación de las frecuencias de ciclo de ROS para mejorar tanto la frecuencia de publicación de las imágenes como del resto de sensores y actuadores. Optimización del tamaño de los buffers para la mejora de la frecuencia de publicación. Reducir el retraso en el procesado de las imágenes para mejorar la toma de decisiones en tiempo real. A partir de esta conexión y mediante algoritmos de visión artificial se habrá desarrollado una base óptima de programación para el funcionamiento del robot AIBO en tiempo real. 2. El robot AIBO AIBO es un robot cuadrúpedo creado por SONY e introducido en 1999 con el modelo ERS-110 [Téllez, 2004]. Fue el primer robot de este tipo en el mercado. Inicialmente SONY enfocó este producto como un robot de entretenimiento para el uso doméstico, pero tuvo una gran repercusión entre la comunidad cientı́fica puesto que facilitaba la investigación en campos como la inteligencia artificial y la interacción entre robots [Zhang and Chen, 2007]. SONY comenzó su comercialización limitando el acceso al lenguaje de programación a ellos mismos y a los participantes de la RoboCup. En 2001 retiró los derechos de autor al kit de programación del AIBO permitiendo ası́ el uso no comercial de éste. El kit incluı́a los lenguajes de programción R-CODE, OPEN-R SDK y el Framework remoto de AIBO. Además de las propias plataformas oficiales de SONY 74 la comunidad de usuarios desarrolló toda una serie de plataformas sobre el robot para facilitar la programación de éste, tales cómo Tekkotsu [Tek, 2014], URBI [Gostai, 2014] o la compilación cruzada de Webots [Hohl et al., 2006]. El proyecto ideado por SONY únicamente duró siete años, parando la producción en 2006, pero a pesar de la brevedad lanzó toda una serie de modelos en tres generaciones de robot (Figura 2). Pese a la interrupción de la fabricación hoy en dı́a aún se encuentran eventos tales cómo la Convención Internacional de AIBO donde se realizan intercambios de software open source. 2.2. Software El software OPEN-R SDK es el que permite mayor libertad de programación de entre los subministrados por Sony. OPEN-R es un lenguaje open source basado en C++ de bajo nivel que permite el acceso y modificación de cualquier variable del robot. Está fundamentado en la creación de objetos que se comunican entre ellos mediante mensajes entre sujetos y observadores (Figura 3). Objeto A Objeto B Preparado Datos Sujeto Figura 2: Modelos de AIBO en el perı́odo 1999-2006. 2.1. Hardware AIBO presenta un microprocesador de 64 bits funcionando a una frecuencia de 576MHz. La memoria del robot está dividida en dos elementos, una memoria RAM interna para el desarrollo de funciones de 64MB y una memoria externa de 32MB donde se encuentran los programas a ejecutar por el robot y que el usuario puede modificar. Como sensores, dispone de: un sensor de presión en cada una de las patas (pawLF, pawLH, pawRF, pawRH) y otro en el mentón (chinSensor), un sensor electrostático en la cabeza (headSensor) y otros tres en el lomo (backSensorF, backSensorM, backSensorR), ası́ como un sensor de temperatura y un sensor de vibración. una cámara CMOS (camera) con parámetros regulables como la resolución y el formato de la imagen; infrarrojos para la detección de la distancia, uno en el pecho (distanceChest), además de otros dos en la cabeza, (distanceNear) y (distance). un micrófono estéreo en cada oreja con un buffer de 2048 bytes donde se encuentra el último sonido captado. tres acelerómetros (accelX, accelY, accelZ). El robot controla toda una serie de actuadores que afectan al entorno: cuatro patas, cada una con tres articulaciones, por tanto doce motores en total para el control de las extremidades; tres grados de libertad sobre la cabeza; inclinación de las orejas; dos grados de libertad en la cola; control de la obertura de la boca. Resultando todo en un total de 20 motores. red Wi-Fi; micrófono para reproducir sonidos guardados previamente en su Memory Stick; un conjunto de LEDS para comunicar el estado del robot. Observador Figura 3: Comunicación entre objetos con OPEN-R. Con posterioridad se desarrolló Tekkotsu, una aplicación open source para el diseño de programas en AIBO. Maneja tareas de bajo nivel y está completamente desarrollada sobre C++. Con el objetivo que el movimiento del robot AIBO sea lo más fluido posible, se diferencia entre el proceso principal Main, donde se realizan los procesos relacionados con la aplicación, y el proceso de captación de datos del AIBO MotionManager. La estructura que comunica estos dos procesos está dada por el MotionCommand y se encuentra en una zona de la memoria compartida por ambos. URBI, por otra parte, es un software open source generalista para el control de robots y sistemas complejos. Está diseñado para realizar tareas en paralelo y está dirigido por eventos, dos de los principales lemas en la programación de sistemas complejos. Otro de los principales objetivos de este lenguaje es la compatibilidad entre robots facilitando ası́ la tarea de programación, pudiendo utilizar los mismos objetos para diversos robots. URBI presenta una librerı́a de componentes UObject escritos en C++ que incorpora un interfaz de programación de robots que describe motores, sensores y algoritmos estándars de robots. Estos objetos pueden ser usados dentro del urbiscript, como elementos locales, o bien como elementos remotos directamente sobre Windows, Linux o Mac OSX para tener una mayor capacidad de cálculo. Urbiscript es el encargado de orquestrar los diversos componentes para que interactuen entre ellos generando ası́ funciones de alto nivel, pero con los dos lemas principales de la robótica nombrados anteriormente en mente. La elevada compatibilidad de este software se debe a la estructura cliente/servidor de URBI que permite la implementación dentro de cualquier lenguaje de programación que tenga la capacidad de crear y trabajar con sockets TCP. La última versión compatible con el robot AIBO es URBI 1.5, que no permite la implementación directa de URBI como objeto de ROS (sı́ con URBI 2.1). Es por esto que se trabajará con un cliente de URBI que será quien envı́ara los datos a ROS. 75 3. Integrando ROS en URBI ROS, Robot Operating System, incorpora gran cantidad de librerı́as y herramientas para facilitar la creación de aplicaciones robóticas. En consecuencia se ha optado por la integración de las dos plataformas. Para ello se ha generado un script de C++ donde se define un cliente de URBI, el ordenador, que será el encargado de recibir y enviar los datos al servidor, el robot. Para que el robot AIBO sea capaz de interactuar con URBI se ha incorporado un objeto de URBI en la memoria programable de éste (Memory stick). La transmisión de datos desde el robot AIBO al cliente de URBI se realiza en primer lugar mediante el establecimiento de una conexión cliente-servidor con un socket TCP/IP. Posteriormente se realizarán callbacks a las funciones especificadas por el cliente y que devolverán los datos solicitados. Finalmente, el cliente también podrá enviar órdenes a AIBO. Paralelamente, también se ha creado un nodo de ROS dentro del cuál se dispone de los tópicos correspondientes a los diferentes actuadores y sensores. Para finalizar la tarea de publicación de los datos se debe crear una serie de publishers que publiquen la información en el tópico correspondiente, es decir, envı́en los datos recibidos por el cliente al nodo de ROS creado. Por último, sólo queda cubrir el envı́o de órdenes a través de ROS el cuál será realizado con la creación de subscribers al tópico que se desee, quienes a su vez enviarán la información al cliente. Éste también enviará la información al servidor, AIBO, el cuál finalmente las llevará a cabo. 4. Obtención de imágenes El robot AIBO dispone de una cámara de tecnologı́a CMOS que presenta una resolución de 350000 pı́xels (480 x 720) [Pérez et al., 2010a; Pérez et al., 2010b]. Las imágenes captadas tendrán que ser convertidas para permitir el procesamiento aplicado posteriormente. 4.1. ufloat Contiene los valores si los datos enviados son del tipo DATA DOUBLE. Es el caso de todos los datos enviados por el AIBO a excepción de los mensajes de sonido e imagen, es decir, los valores de los sensores y actuadores. void* Variable interna que apunta a la zona de almacenaje. std::string Si la información enviada es de tipo DATA STRING se le asocia este tipo. De entre ellas se seleccionan los datos del tipo DATA BINARY, representados por mensajes de tipo UBinary (Figura 4). Finalmente, se escoge la información del subtipo UImage. Figura 4: Obtención de las imágenes. Estructura de las Imágenes El primer punto a tratar es la transformación de las imágenes a partir de URBI en un formato adecuado para la publicación en ROS. El formato correspondiente a los tópicos de imagen en ROS es sensor msgs::Image. Para realizar la conversión se dispone de la plataforma cv bridge, una librerı́a de OpenCV que facilita la conversión entre imágenes de OpenCV a mensajes de ROS. Para esto se debe transformar igualmente la imagen a cv::Mat o IplImage según la aplicación pero representan el mismo formato. En consecuencia el primer paso será la transformación de los datos a OpenCV. Primero se operan los mensajes de URBI de tipo UMessage donde si el contenido es correcto contendrá un apuntador al valor del mensaje. Los datos adquiridos serán de tipo UValue el cuál contiene varias variables. UDataType Contiene la información sobre el tipo de datos enviados. UDictionary* Contiene los datos si son de tipo DATA DICTIONARY. urbi::UBinary Contiene los datos enviados si éstos son de tipo DATA BINARY. Concretamente representa el caso de la transmisión de imágenes (Cuadro 1). BINARY UNKNOWN BINARY IMAGE BINARY SOUND struct{ void* data size t size }common data unsigned char* size size t width size t height size t imageFormat UImageFormat data char rate size t size size t sampleSize size t channels size t sampleFormat USoundSampleFormat soundFormat USoundFormat Cuadro 1: Tipos de información dentro de la variable UBinary. Esta información será guardada en un buffer de 4 imágenes ya en formato jpg, por lo que se presentará una imagen 76 Resultados 5Hz 7.5 Hz 10 Hz 10 9 8 7 6 5 4 En este apartado se realizará un estudio sobre la velocidad de envı́o de imágenes entre el robot AIBO y el ordenador donde corre en núcleo de ROS. La frecuencia de publicación de imágenes viene limitada principalmente por la capacidad del propio robot para el envı́o de imágenes. Se ha de considerar que éste se dejó de fabricar en 2006 y que el último modelo fue diseñado en 2005, por tanto existen limitaciones de hardware que son insalvables en la comunicación cliente-servidor como son el microprocesador, el módulo wi-fi y la calidad de la imagen. Inicialmente se ha realizado un primer estudio con un rango de frecuencias de funcionamiento del nodo de ROS cercanas al valor deseado para la publicación de imágenes que estarı́a entorno a los 25Hz. Tal y como se muestra en la Figura 5, no se ha obtenido el comportamiento esperado debido a las propias limitaciones del entorno, provocando ası́ caı́das en el envı́o de datos. Conjuntamente a esto, se detecta una tendencia negativa de la frecuencia media de publicación. Esta tendencia se justifica ya que la conexión cliente/servidor es posterior al encendido del AIBO, hecho que provoca que el buffer interno del robot se encuentre lleno inicialmente. En consecuencia, en el instante inicial, la frecuencia es la deseada pero posteriormente no es capaz de adquirir las imágenes a este ritmo ya que el robot no es capaz de funcionar a esta frecuencia. 3 0 200 400 600 800 1000 1200 Muestras 1400 1600 1800 2000 Figura 6: Comparativa de las frecuencias de publicación entorno los 7.5Hz. baja para ciertas aplicaciones. Debido a esto no se ha procedido a estudios posteriores con medidas más elevadas de comprensión de la imagen. Evolución temporal según la frecuenca de ROS 11 5 Hz 7.5 Hz 10 Hz 10 Frecuencia de publicación [Hz] 5. Evolución temporal según la frecuenca de ROS 11 Frecuencia de publicación [Hz] de 3 canales R, G, B que posteriormente será abierta mediante OpenCV y transformada en una imagen de tipo cv::Mat, tipo obligado para la implementación de las funciones de la librerı́a de CV Bridge. Mediante ésta transformaremos las imágenes a un formato interpretable por ROS y que serán enviadas al tópico de imagen correspondiente. 9 8 7 6 5 4 3 2 1 0 500 1000 1500 Muestras Figura 7: Comparativa de las frecuencias de publicación entorno los 7.5Hz, con la imagen jpg comprimida al 80 %. Evolución temporal según la frecuenca de ROS Frecuencia de publicación [Hz] 30 20 Hz 25 Hz 30 Hz 25 6. Conclusiones 20 15 10 5 0 0 200 400 600 800 1000 1200 Muestras 1400 1600 1800 2000 Figura 5: Comparativa de las frecuencias de publicación entorno los 25Hz. Por todo ello, se realiza un estudio de frecuencias acorde al ritmo de trabajo del robot, entorno a los 7.5 Hz, reflejado en la Figura 6. Finalmente se ha procedido a disminuir la calidad de la imagen comprimida (jpeg) que envı́a el robot AIBO para mejorar la velocidad de transmisión. Se ha definido una compresión del 80 %. Tal y cómo se puede observar en la Figura 7 se detecta una mejorı́a, que serı́a más destacable con un factor de compresión mayor pero esto implicarı́a una calidad de imagen muy En este documento se documenta el trabajo realizado con el robot AIBO, de Sony, para la obtención de imágenes, ası́ como su tratamiento con el objetivo que el robot navegue de forma autónoma mediante algoritmos de visión artificial. A nivel práctico, el principal punto de interés del artı́culo se centra en el entorno de programación, que se ha exportado al marco de ROS (Robot Operating System), de forma que se pueda hacer uso de la extensa biblioteca de algoritmos ya desarrollados en este entorno. En el apartado de experimentación se ha observado que la frecuencia óptima de trabajo del nodo de ROS se deberı́a encontrar entre los 5 y los 7.5Hz para una frecuencia de publicación constante y un nivel de compresión de la imagen del 80 % para mantener unos mı́nimos estándares de calidad. Este valor se encuentra alejado de los valores óptimos de trabajo, que se encuentran entorno los 25Hz, lo que comportará limitaciones sobre los algorismos de tratamiento de imágenes a realizar sobre AIBO. Futuros trabajos deberı́a incidir en evitar que la transmisión de datos sea el principal cuello de botella del proceso. 77 Referencias [Baillie, 2005a] Jean-Christophe Baillie. Specification. 2005. URBI Language [Baillie, 2005b] Jean Christophe Baillie. URBI: Towards a universal robotic low-level programming language. In 2005 IEEE/RSJ International Conference on Intelligent Robots and Systems, IROS, pages 3219–3224, 2005. [Bradski, 2000] G. Bradski. The OpenCV Library. Dobb’s Journal of Software Tools, 2000. Dr. [Decuir et al., 2004] John D. Decuir, Todd Kozuki, Victor Matsuda, and Jon Piazza. A friendly face in robotics: Sony’s aibo entertainment robot as an educational tool. Computers in Entertainment, 2(2):14, 2004. [Flores and Braun, 2011] Pablo Flores and Juan Braun. Algoritmo SIFT : fundamento teórico. pages 1–5, 2011. [Gostai, 2014] Gostai. URBI Doc for Aibo ERS2xx ERS7 and URBI 1.0, 2014. Data de consulta: 6 de març de 2014. [Hohl et al., 2006] Lukas Hohl, Ricardo Tellez, Olivier Michel, and Auke Jan Ijspeert. Aibo and Webots: Simulation, wireless remote control and controller transfer. Robotics and Autonomous Systems, 54(6):472–485, June 2006. [Huang and Dissanayake, 2007] Shoudong Huang and Gamini Dissanayake. Convergence and Consistency Analysis for Extended Kalman Filter Based SLAM. IEEE Transactions on Robotics, 23(5):1036–1049, October 2007. [Kertész, 2013] Csaba Kertész. Improvements in the native development environment for Sony AIBO. International Journal of Interactive Multimedia and Artificial Intelligence, 2(3):51, 2013. [Kolovrat, 2013] Stipe Kolovrat. Development of Android Application for Sony Aibo ERS-7 robot. Master’s thesis, Universitat Politècnica de Catalunya, 2013. [Pérez et al., 2010a] Xavier Pérez, Cecilio Angulo, and Sergio Escalera. Vision-based Navigation and Reinforcement Learning Path Finding for Social Robots. PhD thesis, Universitat Politécnica de Catalunya, 2010. [Pérez et al., 2010b] Xavier Pérez, Cecilio Angulo, Sergio Escalera, and Diego E. Pardo. Vision-based navigation and reinforcement learning path finding for social robots. In Jornadas ARCA 2010, June 2010. [Quigley et al., 2009] Morgan Quigley, Ken Conley, Brian P. Gerkey, Josh Faust, Tully Foote, Jeremy Leibs, Rob Wheeler, and Andrew Y. Ng. ROS: an open-source robot operating system. In ICRA Workshop on Open Source Software, 2009. [Riisgaard and Blas, 2005] Søren Riisgaard and Morten Rufus Blas. Slam for dummies: A tutorial approach to simultaneous localization and mapping. Technical report, 2005. [Tek, 2014] Tekkotsu, 2014. Fecha de consulta: 18/06/2014. [Téllez, 2004] Ricardo A. Téllez. Aibo Quickstart Manual. Technical report, Grup de Recerca en Enginyeria del Coneixement (GREC), 2004. [Zhang and Chen, 2007] Jiaqi Zhang and Qijun Chen. Learning based gaits evolution for an AIBO dog. 2007 IEEE Congress on Evolutionary Computation, pages 1523– 1526, September 2007. XVI Jornadas de ARCA 78 79 Qualitative Simulation of a Sentiment Analysis Theory Ismael Sanz, Lledó Museros Universitat Jaume I Castelló de la Plana, Spain {isanz,museros}@uji.es Abstract This paper presents a qualitative sentiment analysis theory based in a well-known sentic computing theory presented in [1]. This theory is simulated in order to determine the sentiment polarity (negative, neutral or positive sentiment) of a tweeter message. 1. Introduction Sentiment analysis refers to the use of natural language processing, text analysis and computational linguistics to identify and extract subjective information in source materials. Generally speaking, sentiment analysis aims to determine the attitude of a speaker or a writer with respect to some topic or the overall contextual polarity of a document. The attitude may be his or her judgment or evaluation, affective state (that is to say, the emotional state of the author when writing), or the intended emotional communication (that is to say, the emotional effect the author wishes to have on the reader). With the boom of the Web 2.0, users are more and more active in the web by interacting, sharing and collaborating through social networks, blogs, wikis, and other collaborative media. With this collaboration a “collective intelligence” has emerge in the web. By collective intelligence it is understand the intelligence that emerges from the collaboration, collective efforts, and competition of many individuals. This collective intelligence has spread to many different areas in the Web, as commerce, politics, tourirm, education, health, and so on. For instance, users usually perform the on-line review of services and products, and even spread politics opinion. All these contribution are valuable for future buyers or voters. The distillation of knowledge from the huge amount of unstructured information on the Web can be a key factor for tasks such as social media marketing, branding, product positioning, and corporate reputation management. For instance, in the tourism sector a sentiment analysis theory would help to determine: (i) if a Social Media Marketing1 campaign has succed; and (ii) the opinion of 1 SMM refers to the process of gaining website traffic or attention through social media sites Luis González-Abril Universidad de Sevilla Sevillla, Spain luisgon@us.es the clients (of a hotel, travel agency, transport company, and so on) that can influence to other future clients. But, these online social data, however, remain hardly accessible to computers, as they are specifically meant for human consumption. Therefore, to develop a sentiment analysis theory able to give this type of information to the companies is a valuable tool for business decision-making. Recently, in the literature have appeared approaches dealing with the development of sentiment analysis theories. An Emotion Ontology (EMO) has been developed in [2]. [3] reviews past, present, and future trends of sentiment analysis. It covers common tasks for sentiment analysis along with the main approaches, and discusses the evolution of different tools and techniques— from heuristics to discourse structure, from coarse- to finegrained analysis, and from keyword to concept-level opinion mining. The article also discusses the emergence of multimodal sentiment analysis and considers future tendencies. In [4] a two-step method combining iterative regression and random walk with in-link normalization is proposed to build a concept-level sentiment dictionary. ConceptNet is exploited for propagating sentiment values based on the assumption that semantically related concepts share common sentiment. Another peculiarity of the article is that it uses polarity accuracy, Kendall distance, and averagemaximum ratio, instead of mean error, to better evaluate sentiment dictionaries. Chihli Hung and Hao-Kai Lin [5] propose the re-evaluation of objective words in SentiWordNet2 by assessing the sentimental relevance of such words and their associated sentiment sentences. Two sampling strategies are proposed and integrated with support vector machines for sentiment classification. Bosco, Patti and Bolioli [6] focuses on the main issues related to the development of a corpus for opinion mining and sentiment analysis both by surveying existing works in this area and presenting, as a case study, an ongoing project for Italian, called Senti-TUT, where a corpus for the investigation of irony about politics in social media is developed. Amigó and his colleagues presents in [7] presents the results of the 2 SenticWordNet is a lexical resource for opinion mining. SentiWordNet assigns to each synset (cognitive synonyms) of WordNet (a large lexical database of English) three sentiment scores: positivity, negativity, objectivity. 80 second RepLab competitive evaluation campaign for Online Reputation Management systems (RepLab 2013), which is a competition focused on the process of monitoring the reputation of companies and individuals, and asks participating systems to annotate different types of information on tweets containing the names of several companies. Cambria and his colleagues presented in [1] a sentic computing theory for social media marketing. Sentic computing uses a common sense reasoning [8] approach coupled with a novel emotion categorization model [9]. Emotions are subjective and qualitative in nature, and the use of common sense, suggested us that qualitative reasoning could be suitable to manage this type of information. Therefore, this paper presents a qualitative interpretation of the sentic computing work presented in [1]. This interpretation is simulated in order to test its behavior when determining the polarity of a text. 2. Qualitative Sentiment Analysis Theory The sentic computing theory in [1] is based in the Hourglass of Emotions (Figure 1). This model constitutes an attempt to emulate Marvin Minsky’s conception of emotions. The Hourglass of Emotions is specifically designed to recognize, understand and express emotions in the context of humancomputer interaction (HCI). In the model, in fact, affective states are not classified, as often happens in the field of emotion analysis, into basic emotional categories, but rather into four concomitant but independent dimensions— Pleasantness, Attention, Sensitivity and Aptitude—in order to understand how much respectively: 1. the user is amused by interaction modalities (Pleasantness) 2. the user is interested in interaction contents (Attention) 3. the user is comfortable with interaction dynamics (Sensitivity) 4. the user is confident in interaction benefits (Aptitude) sity of the emotion. The concomitance of the different affective dimensions makes possible the generation of compound emotions such as ‘love’, which is given by the sum of ‘joy’ and ‘trust’, or ‘aggressiveness’, given by the concomitance of ‘anger’ and ‘anticipation. Sentic computing theory in [1] determines the sentimental polarity of a text by applying Cambria’s formula: where each concept represents the affective valence for each sentic dimension of the term oi in the text; N is the total number of retrieved concepts and 9 is the normalization factor (the maximum value of the numerator in fact is given by the sentic vector [3, ±3, 0, 3] and the minimum by [−3, 0, ±3, −3]). In the formula, Attention and Sensitivity are taken in absolute value since, from the point of view of polarity rather than affection, all of their sentic values represent positive and negative values respectively (e.g. ‘anger’ is positive in the sense of level of activation of Sensitivity but negative in terms of polarity and ‘surprise’ is negative in the sense of lack of Attention but positive from a polarity point of view). In order to create a qualitative version of this sentic computing theory, Garp3 software [10] has been used, which is a workbench for building, simulating, and inspecting qualitative models. As Cambria’s formula uses Attention and Sensitivity dimension as absolute values, it has been implemented using Garp3 defining the Model Fragment Tree shown in Figure 2. This means that a negative or a positive value of the attention dimension (AttentionN and AttentionP respectively) have the same effect in the polarity of the text, in this case they have a positive influence in the result (Figure 3 and 4). The same happens with the dimension sensitivity, but in this case they have a negative influence (Figure 5 and 6). Figure 2. Model Fragment Tree for Cambria Sentic Computing Theory. Figure 1. Hourglass of Emotions. Each affective dimension is characterized by six levels of activation, called ‘sentic levels’, which determine the inten- Using Garp 3 it is also necessary to define the system scenario (Figure 7), which defines the different model dimensions (emotional categories in this case). In the scenario the influence of each emotional dimension is defined. In this case, we have make a qualitative reference system for each dimension. This qualitative reference system is defined by three symbols, which are {plus, zero, min}, the symbol 81 “plus” means that the dimension has a big value, “zero” means that the dimension does not appear or it can be discarded, and “min” means that the dimension has a low value. the final polarity of this sentence is positive. But the model can also presents uncertainty, for instance when: pleasantness = Zero; attention = Min; sensitivity = Plus ; aptitude = Plus, then the model return three possible solution: positive, neutral and negative. This happens because the system is not able to determine for instance if a positive value in a dimension is bigger or smaller than a negative value of another dimension. Figure 5. SensitivityN polarity influence Figure 3. AttentionN polarity influence. Figure 6. SensitivityP polarity influence Figure 4. AttentionP polarity influence. If the scenario is executed without indicating a initial qualitative value for each sentiment dimension, then the program returns all the possible combinations that the four emotional categories can generate and the polarity associate to each combination (Figure 8). This means that the program calculates between 81 and 243 solutions (81*3). If the user wants to find an specific solution, then it is necessary to indicate the qualitative value (Plus, Zero or Min) of each emotional category in the initial scenario. As an example, if a sentence has next values: pleasantness = Zero; attention = Min; sensitivity = Zero; aptitude = Plus, then, Figure 7. System Scenario 82 Figure 8. Extract of the system result when no initial values are given to the sentiment dimensions. 3. Experiments and Results We have test the qualitative simulator created to analyze the polarity of tweeter messages about the sales of the new Samsung Galaxy 5 mobile phone. The sentences analyzed are in Spanish, and they are the ones shown in figure 9. Figure 10. Words considered in the tweets (first column is the word, second one the sentiment dimension for this word, and third one the quantitative value assigned). Figure 11. Initial scenario for analyzing the tweets. Figure 12. Result of the simulation. Figure 9. Sentences analyzed. For each sentence in Figure 9, the words in Figure 10 are considered by giving them the values for sentiment dimensions that can be seen in the same figure. Using the quantitative formula of Cambria the polarity of the sentences in general is very positive. Then, what we have done is to translate the values in Figure 10 to the corresponding qualitative ones, and the experiment has been executed in order to determine the polarity (Figure 11). And the solution of the qualitative simulation is the one shown in Figure 12. As it can be seen the polarity is also positive, which means that the system works similarly to the quantitative one. 4. Conclusions and Future Work This paper presents a qualitative simulation of the sentiment analysis theory presented in [1]. The experiments done demonstrate that the simulation obtains similar results than the original one. This means, that the theory has been qualitatively well simulated using Garp3, but by developing a qualitative theory we have added semantics to the method. As future work we intend to improve the qualitative theory presented by defining different granularity levels (for instance use more than 3 levels for the qualitative values). Also, our intention is to apply the new theory not only to determine the general polarity of a text about the quality of a product, but also the polarity of the individual features of this product. 83 Acknowledgements This work has been partially supported by the Andalusian Regional Ministry of Economy (project SIMON TIC-8052), the Spanish Ministry of Economy and Competitiveness (under project number TIN2011-24147), by Universitat Jaume I-Fundació Bancaixa (under project number P11B2013-29), and by Generalitat Valenciana under project GVA/2013/135. References [1] E. Cambria, M. Grassi, A. Hussain, and C. Havasi. Sentic Computing for Social Media Marketing. Multimedia Tools and Applications, Volume 59, Issue 2, pp. 557-577, July 2012. [2] J. Hastings, W. Ceusters, B. Smith, and K. Mulligan. The Emotion Ontology: Enabling Interdisciplinary Reasearch in the Affective Sciences. Modelling and Using Context. Lecture Notes in Computer Sicence, Volume 69677, pp. 119-123, 2011. [3] E. Cambria, B. Schuller, Y. Xia, and C. Havasi, New Avenues in Opinion Mining and Sentiment Analysis, Knowledge-Based Approaches to Concept-Level Sentiment Analysis, IEEE Computer Society, pp.15-21, March/April 2013. [4] A. Charng-Rurng Tsai, C. Wu, R. Tzong-Han Tsai, and J. Hsu, Building a Concept-Level Senitment Dictionay Based on Commonsense Knowledge, Knowledge-Based Approaches to Concept-Level Sentiment Analysis, IEEE Computer Society, pp.15-21, March/April 2013. [5] C. Hung, and H. Lin, Using Objective Words in SentiWordNet to Improve Word-of-Mouth Sentiment Classification, Knowledge-Based Approaches to Concept-Level Sentiment Analysis, IEEE Computer Society, pp.15-21, March/April 2013 [6] C. Bosco, V. Patti, and A. Bolioli, Developing Corpora for Sentiment Analysis: The Case of Irony and Senti-TUT, Knowledge-Based Approaches to Concept-Level Sentiment Analysis, IEEE Computer Society, pp.15-21, March/April 2013. [7] E. Amigó, J. Carrillo de Albornoz, I. Chugur, A. Corujo, J. Gonzalo, T. Matín, E. Meij, M. de Rijke, and D. Spina. Overview of RepLab 2013: Evaluating Online Reputation Monitoring Systems. Information Access Evaluation. Multilinguality, Multimodality and Visualization. Lecture Notes in Computer Science Volume 8138, pp. 333-352, 2013. [8] E. Cambria, A. Hussain, C. Havasi, C. Eckl. Common sense computing: from the society of mind to digital intuition and beyond. In Lecture Notes in Computer Science, Volume 5707, pp.252-259, 2009. [9] E. Cambria, A. Hussain, C. Havasi, C. Eckl. SenticSpace: visualizing opinions and sentiments in a multidimensional vector space. In Lecture Notes in Artificial Intelligence, Volume 6279, pp. 385-393, 2010. [10] Garp 3 download https://ivi.fnwi.uva.nl/tcs/QRgroup/QRM/software/, visited October 2014. page last XVI Jornadas de ARCA 84 85 Sincronización de Robots AIBO. Un Estudio Comparativo∗ Diego Muñoz, Manel Velasco, Cecilio Angulo Universitat Politècnica de Catalunya · UPC BarcelonaTech Pau Gargallo 5. ESAII – Departament d’Automàtica, Barcelona, Spain 08028 diegoamg89@gmail.com, {manel.velasco, cecilio.angulo}@upc.edu Abstract El trabajo tiene por objetivo implementar un conjunto de módulos de software que permitan integrar la plataforma robótica AIBO en el marco de trabajo ROS (Robot Operating System). El problema principal radica en el método utilizado para comunicarlos. Inicialmente se estudiaron los diferentes software alternativos con los que poder operar. Luego se compararon varios métodos de programación, de forma que un análisis cuantitativo permitió decidir el método más adecuado. Finalmente se implementaron los módulos que facilitan la integración con ROS. Por un lado el módulo de control, al que se le han aplicado unos criterios de valoración y se ha puesto a prueba su funcionamiento, y por otro el módulo que facilita la integración de un modelo de visualización 3D. Con todo este trabajo desarrollado, se realizó la aplicación de sincronización de movimientos de un par de robots AIBO y se realizaron experimentaciones que muestran la bondad del trabajo desarrollado. 1. Introducción Ocho años después de la retirada del mercado de la mascota robótica por excelencia, el robot AIBO, de la compañı́a japonesa Sony [Decuir et al., 2004; Arevalillo-Herráez et al., 2011], éstos permanecen encerrados en los armarios de muchos equipos de investigación, a pesar que en su dı́a le sacaron un gran provecho tecnológico. Desde el Departamento de Automática de la Universitat Politècnica de Catalunya se ha lanzado una iniciativa global que tiene como objeto la recuperación de esta plataforma robótica para su uso en investigación y docencia. Mediante el uso de una comunicación inalámbrica, se facilitará el procesado de la carga de trabajo con mayores requerimientos en un procesador externo, mientras se continuan haciendo uso de las funcionalidades que hicieron de AIBO el producto robótico más sofisticado puesto en el mercado. ∗ Este trabajo ha sido financiado parcialmente por los proyectos de investigación PATRICIA (TIN2012-38416-C03-01) y EVENTS (DPI2010-18601), ambos financiados por el Ministerio de Economı́a y Competitividad del Gobierno de España. El objetivo del presente estudio es realizar un demostrador del sistema en una tarea de sincronización de dos robots AIBO. Para llegar a esta meta es necesario ser capaz de adquirir los datos de las articulaciones y demás sensores de uno de los robots a la mayor velocidad posible, ası́ como enviar los valores de control de las articulaciones al segundo AIBO. Para ello se han probado y analizado un conjunto de posibles lenguajes de programación / comunicación que permiten la intercomunicación del robot AIBO con ROS. Con este fin, se han implementado una serie de experimentos que permitirán decidir qué método de adquisición de datos es más efectivo. La comparativa se ha basado en criterios como la frecuencia media de lectura, x̄ los intervalos de congelación en la lectura, la frecuencia máxima de envı́o, la capacidad de transmisión, y el retraso en el seguimiento de trayectorias. Estos experimentos se han estructurado sobre un paradigma cliente servidor. En el que el cliente es el PC que contiene ROS y el servidor de datos es la plataforma AIBO. AIBO soporta varios métodos para la extracción de datos hacia el PC. De entre ellos se ha elegido utilizar URBI [Baillie, 2005] y conexión directa utilizando telnet. Esta elección está fundamentada en la facilidad que presentan estos dos sistemas frente a métodos más complejos de comunicación. Los métodos comparados en los experimentos han sido: Cliente implementado en C++ usando la librerı́a liburbi. Dos clientes implementados en C++ usando la librerı́a liburbi, una para la escritura y otro para la lectura. Comunicación usando telnet sobre un script de python. Finalmente se ha optado por trabajar con URBI debido a que permite una comunicación sencilla entre el servidor, el AIBO, y un cliente externo. Una vez alcanzado el anterior propósito y en aras de poner de manifiesto los resultados de los experimentos precedentes se realizaron algunos ejemplos de sincronización: Imitación de un robot AIBO a otro: esta aplicación requiere de una gran fluidez en el trafico de datos, convirtiéndose ası́ en un excelente indicador del grado de capacidad de sincronización que es posible adquirir. 86 Coordinación de movimientos para una tarea: este caso aportará una visión más útil de la sincronización de robots para realizar tareas. Con el objetivo último de conseguir una comunicación entre robots AIBO de forma intuitiva a la vez que proporcionar una serie de herramientas muy útiles en los entornos de robótica móvil actuales, se usará ROS (Robot Opetating System) [Quigley et al., 2009] como capa intermedia de la programación. Esta extensión facilitará la implementación de las aplicaciones anteriormente descritas, ası́ como hacer uso de todas las librerı́as ya existentes en este entorno estándar de programación. Por último, indicar que el trabajo aquı́ iniciado permite una rápida extensión hacia esquemas de robótica en la nube (cloud robotics) y de computación en red que son del todo interesantes de explorar. 2. El robot AIBO La plataforma de estudio AIBO ha permitido la realización de numerosos proyectos de investigación, de ı́ndole muy diversa. Mayoritariamente se han llevado a cabo proyectos relacionados con visión artificial [Pérez et al., 2010] y comportamientos en inteligencia artificial [Téllez et al., 2006]. Un punto esencial en el desarrollo del robot AIBO fue que durante el perı́odo comprendido entre 1999 y 2008 fue la plataforma elegida para realizar la competición RoboCup Standard Plataform League, posteriormente sustituido por la plataforma NAO de Aldebaran. También en la prueba de simulacros de rescate, AIBO tuvo una gran acogida [Nardi and Lima, 2012]. La RoboCup fue fuente de inspiración para múltiples investigaciones que se pueden clasificar en tres grupos según su finalidad: Visión y reconocimiento de marcas para la posterior ubicación dentro del campo [Morales-Jiménez, 2007]. Comunicaciones y control [Martı́nez Gómez, 2006]. de los movimientos Definición de roles dentro del campo [Montero-Mora et al., 2009]. Actualmente el robot AIBO ha caı́do en desuso, en parte por dejar de ser plataforma de la RoboCup y en parte porque dejó de ser mantenido por parte del fabricante. Las nuevas actualizaciones de los softwares que lo soportaban han dejado de ser compatibles, incluso aquellos que nacieron especialmente para el AIBO. Ası́ es el caso de URBI, que desde la version 1.5, su librerı́a liburbi no es compatible. Igualmente gran parte de la documentación de estos lenguajes ya no se encuentra en la red. Han existido intentos de recuperar la plataforma AIBO, como es el caso de un proyecto que trataba de hacer compatible la version 2.3 de liburbi para AIBO [Kecsap, 2010]. Otro proyecto trataba de realizar la integración mediante EusLisp a ROS de varias plataformas, entre ellas AIBO. Sin embargo es muy escasa o ninguna la documentación referente a ello [Kertész, 2013]. 3. Comparación de alternativas para la programación Con la finalidad de implantar ROS en AIBO se plantea una primera elección del camino a seguir: (1) un núcleo de ROS embebido, es decir que sea en el propio AIBO donde se ejecute el proceso, (2) un núcleo de ROS en un ordenador remoto y comunicación entre ambos mediante una arquitectura cliente/servidor. Para explorar la opción de un sistema embebido se ha buscado un punto de acceso al hardware con la intención de instalar una distribución linux. Sin embargo el único punto de acceso encontrado no respondı́a a ningún estándar, por lo que se desiste su utilización. Ası́, sólo es posible usar una arquitectura cliente/servidor con el módulo de ROS ejecutándose en el cliente y adquiriendo de forma sencilla y rápida el estado del AIBO y actuando sobre él. Pese a que existen diferentes posibilidades de programación (OPEN-R, Tekkotsu, URBI), éste último tiene la ventaja de que no serı́a necesario desarrollar el servidor ya que el sistema operativo interactúa de forma remota. Además, el uso de URBI es relativamente sencillo, tanto desde el terminal como con el uso de la librerı́a de C++. También existe bastante documentación. El único problema que se ha detectado es que la librerı́a liburbi 1.5, la más reciente que es compatible con AIBO, no es compatible con un sistema linux de 64 bits. Una vez escogido URBI como lenguaje de desarrollo, se plantean dos opciones: Usar liburbi con C++. Usar un script de python que use la terminal de URBI bajo una conexión telnet. Para determinar la opción a elegir se realizaron una serie de experimentos comparativos sobre la eficacia de las comunicaciones de ambos métodos. Los experimentos se realizaron en ambas direcciones de la comunicación, por un lado la lectura y por otro el envı́o. 3.1. Lectura de datos De los datos obtenidos de las 15 réplicas experimentales de cada uno de los dos métodos probados se han obtenido las diferencias de tiempos entre un dato y el siguiente y se traduce a frecuencia calculando el inverso. Los resultados mostraron claramente que con el uso de liburbi se alcanzan frecuencias medias más altas (x̄ = 13,611Hz y σ = 13,271 para liburbi y x̄ = 3,000Hz y σ = 2,763 para python) en la mayorı́a de réplicas. Además, la mayorı́a de datos se envı́an más rápidos como se refleja en los valores de las medianas de liburbi que son mayores que los valores del tercer cuartil del metodo python. Por otro lado, los valores mı́nimos de cada método son muy similares y la variabilidad de los resultados de liburbi es mayor. Tan importante como los valores medios de las frecuencias es comprobar si se producen bloqueos en la comunicación, es decir si durante un cierto perı́odo de tiempo no se actualiza la variable. Para verificar si se producen bloqueos es necesario atender a los valores mı́nimos de las series. Aparentemente liburbi presenta unos valores mı́nimos más bajos, sin embargo el análisis de la varianza (ANOVA) de los mı́nimos indica que 87 no se corresponden con poblaciones distintas, por lo que se acepta la hipótesis nula (p valor = 0,4 y I.C. = 95 %). 3.2. Envı́o de datos El segundo experimento consiste en enviar una trayectoria sinusoidal punto a punto a una articulación y comprobar la respuesta. Para capturar los resultados se leerá la respuesta de la articulación usando los módulos de lectura del experimento anterior. En este experimento se ha contado con 3 posibles opciones de programación. Esto es ası́ debido a que la terminal de URBI usando un cliente telnet con python no permite la lectura y escritura simultánea, y en consecuencia se han tenido que desarrollar dos clientes telnet. Aunque si bien liburbi permite la lectura y escritura por un solo cliente, se ha considerado oportuno añadir un programa con dos clientes, equivalente al método utilizado con python. En sı́ntesis, los programas que se van a utilizar son los siguientes: Python con un cliente telnet para lectura y otro para escritura. C++ con un cliente URBI tanto para lectura como para escritura. C++ con un cliente URBI para lectura y otro para escritura. El experimento se ha repetido cambiando la frecuencia a la que se envı́an los puntos de la trayectoria. Los valores de las frecuencias utilizados son: 1, 2, 5 y 10 Hz. Se han omitido mayores velocidades ya que el movimiento a una frecuencia de mas de 10 Hz era inconstante y discontinuo. Con la finalidad de obtener una mayor fiabilidad en los resultados se han realizado 3 réplicas por métodos y frecuencia. Se han descartado los experimentos en los que se ha producido un bloqueo. De los resultados obtenidos se pueden distinguir dos tipos de errores que provocan que la trayectoria realizada no sea la correcta: La articulación no se mueve. No se recibe la posición actual. En este caso no se puede saber si la articulación se ha movido1 . Se puede concluir que el seguimiento de la trayectoria es independiente de la frecuencia utilizada en este rango. Por otro lado también se observa que con un solo cliente liburbi se producen grandes bloqueos en la recepción y muestra una trayectoria más discontinua e inconstante. En lo que respecta a los otros dos métodos, dos clientes con liburbi y python, tienen un comportamiento aceptable y no se puede concluir que uno sea mejor que otro. Para discernir cual de los dos métodos es más eficiente se han analizado las diferencias de tiempo entre el momento en que se envı́a la orden de los picos de la sinusoide y el momento en que se recibe que ha llegado a dicha posición. Para comprobar si existe diferencia entre las series se realiza una ANOVA sobre los datos. Con un intervalo de confianza del 95 % el p-valor es de 2,1e-7, por lo tanto no se acepta la 1 Por inspección visual se ha comprobado que ambos errores son independientes. hipótesis nula y se puede concluir que el retraso con C++ es significativamente menor. En sı́ntesis, el método liburbi se ha demostrado más eficaz en lo relativo a la recepción de datos, muestra un comportamiento similar a python en el seguimiento de las trayectorias con el uso de dos clientes y además se obtiene un retraso de seguimiento menor que python estadı́sticamente significativo. Adicionalmente, se ha de tener en consideración que el paquete será más complejo que los programas utilizados en los experimentos y dado que C++ se ejecuta a mayor velocidad que python las diferencias de ejecución podrı́an llegar a ser crı́ticas. En consecuencia la librerı́a liburbi usando dos clientes es el método elegido para implementar el paquete de ROS. 4. Implementación en ROS ROS es el acrónimo de Robot Operating System, que lejos de ser un sistema operativo es más bien un marco de trabajo que proporciona unas herramientas y unas librerı́as para ayudar a desarrollar software para aplicaciones de robótica. Proporciona entre otras facilidades abstracciones de hardware, controladores para dispositivos, herramientas de visualización, comunicación por mensajes, administración de paquetes y todo ello bajo licencia de software libre. La principal caracterı́stica sobre ROS es su sistema de comunicación. A bajo nivel está basado en el pase de mensajes que pueden ser leı́dos por diversos procesos simultáneamente. Dichos mensajes se escriben sobre unos canales de comunicación llamados topics a los que se puede acceder mediante métodos de publicación y subscripción. Sobre los tópicos se puede publicar o subscribir desde un terminal o bien cualquier objeto de ROS, denominados nodes. Todos los programas que se ejecutan sobre ROS deben ser creados dentro de un paquete (package). 4.1. Paquete aibo server Se pretende implementar un paquete que se conecte al robot AIBO dentro de una red local. Una vez conectado debe recoger los datos enviados por el servidor URBI del robot y publicarlos sobre una serie de tópicos. De forma inversa debe tratar los valores de las articulaciones del tópico al que está subscrito y enviarlos al servidor con el fin de actuar sobre la plataforma (ver Figura 1). La implementación del paquete de ROS se realiza usando liburbi y dos clientes, uno para la recepción y otro para el envı́o. La estructura del programa implementado se puede ver en la Figura 2. Por lo que respecta la adquisición de los valores de sensores y articulaciones, se han conseguido obtener trabajando a una frecuencia de 10Hz. Con objeto de verificar que el refresco de los tópicos es correcto se ha accedido a mostrar por el terminal todos ellos junto con su frecuencia de refresco. Para realizar una valoración del envı́o de las posiciones se necesita de un paquete de ROS que permita cuantificar los resultados. El test aplicado es similar al realizado en las experimentaciones de la Sección 3. Se trata de enviar punto a punto una trayectoria sinusoidal a las posiciones de una articulación. Para la realización del test se ha implementado un sencillo programa que crea un nodo que publica sobre el tópi- 88 Figura 3: Estructura de ROS con los nodos aibo server y SinLeg. Figura 1: Nodo aibo server. Figura 4: Entrada y respuesta del sistema ante una señal sinusoidal enviando puntos a 10Hz. Figura 2: Estructura básica del ejecutable aibo server. co /aibo server/aibo/subjoints/jointRF1. La estructura entre los nodos se muestra en la Figura 3. De los resultados obtenidos en la realización de varias réplicas a diversas frecuencias se deduce que el seguimiento de la trayectoria lleva un retraso mı́nimo entorno a los 0.5 segundos, dato que coincide con el retraso medio obtenido en las experimentaciones de la subsección 3.2. Por otro lado el modulo implantado no ha mejorado los resultados obtenidos en la subsección 3.2 en lo relativo a los bloqueos (Figura 4). Por lo tanto, cabe concluir que el módulo no proporciona las condiciones necesarias para aquellas aplicaciones en las que se requiere una lectura y una respuesta rápida del sistema. 4.2. Paquete aibo description Este paquete pretende ser el vı́nculo entre el robot AIBO y una de las herramientas más usadas de ROS para robots móvi- les, rviz2 , un visualizador 3D para aplicaciones de robótica que permite visualizar un modelo, el entorno sensado o un mapa virtual. El paquete consta de dos partes diferenciadas, la creación del modelo de AIBO para su representación en imagen 3D y la implementación de un nodo que sincronice el modelo con el robot. Para generar un modelo, se debe editar un fichero xml con formato URDF3 (Unified Robots Description Format) donde se especifican las dimensiones del robot, las articulaciones y sus movimientos, la geometrı́a de las extremidades y parámetros fı́sicos como la masa o la inercia. Para el modelo de AIBO se han creado 22 partes y 21 articulaciones. Se han descartado en el modelo la boca y las orejas. En cada una de las partes se debe definir la geometrı́a y sus dimensiones. Con el fin de darle un aspecto visual más atractivo y mas semejante al robot AIBO real la geometrı́a ha sido definida mediante archivos stl que contienen las figuras de cada una de las partes. A partir de un modelo sólido se han dividido y modificado algunas piezas usando los softwares de apoyo FreeCAD4 y Netfabb5 . El resultado desde la ventana de rviz se muestra en la Figura 5. El nodo state publisher está creado mediante un programa escrito en C++ (state publisher.cpp) y está subscrito al tópico /aibo server/aibo/joints, donde se encuentran las posiciones de las articulaciones del robot real, y las publica en un tópico llamado joint states al que accede rviz. Además envı́a la transformada del modelo cinemático. En la Figura 6 se puede observar cómo queda la estructura de los nodos con el visualizador rviz y el nodo aibo server en funcionamiento. 2 http://wiki.ros.org/rviz http://wiki.ros.org/urdf http://freecadweb.org/ 5 http://www.netfabb.com/ 3 4 89 Figura 6: Estructuras de los nodos de ROS con aibo server y el modelo visualizado con rviz. Referencias Figura 5: Modelo visto desde el framework de rviz. 5. Conclusiones y Trabajos Futuros Como resultado del trabajo realizado, puede afirmarse que se ha alcanzado el objetivo de implementar los paquetes aibo server y aibo description que permiten la sincronización de varios robots AIBO. Estos paquetes están disponibles para su uso o modificación en https://github.com/Diamg/AiboRosPackages, con objeto de poder complementarlos y mejorar los resultados. El módulo implementado permite adquirir los datos de los sensores y articulaciones de AIBO de forma satisfactoria a velocidades superiores a 10 Hz en forma de tópicos de ROS. Esta parte del módulo por si solo ya facilita enormemente la programación, el testeo y la depuración con el uso de las herramientas que facilita ROS. Además, en esta lı́nea se ha incluido un modelo para el visualizador rviz con un aspecto visual y funcional complementando el módulo anterior. Por otro lado, la parte implementada que se encarga de enviar las ordenes a AIBO permitiendo actuar sobre él, no ha dado unos resultados tan veloces como serı́a deseable y no permite el envı́o de trayectorias punto a punto con este método. De todos modos, URBI dispone de su propio generador de trayectorias por lo que permite enviar funciones de movimiento más complejas o posiciones concretas enviadas a un ritmo mas bajo del implementado. Este proyecto deja un camino abierto a posibles mejoras y complementos. Entre otros, la integración del modulo de visión y audio usando URBI. Por otra parte, cabe la duda de si el comportamiento de envı́o serı́a mejor usando OPEN-R, lo que implica eliminar una capa de programación intermedia, URBI, que posiblemente está ralentizando y empeorando la comunicación entre cliente y servidor. En cuanto al modelo y el nodo que permite su integración con rviz podrı́a completarse añadiendo otros sensores del AIBO como los acelerómetros, los infrarrojos, los sensores de presión y contacto, permitiendo, entre otros, realizar proyectos de odometrı́a. [Arevalillo-Herráez et al., 2011] Miguel Arevalillo-Herráez, Salvador Moreno-Picot, and Vicente Cavero Millán. Arquitectura para utilizar robots AIBO en la enseñanza de la inteligencia artificial. IEEE-RITA, 6(1):1–9, 2011. [Baillie, 2005] Jean-C. Baillie. URBI: Towards a universal robotic low-level programming language. In Intelligent Robots and Systems, 2005. (IROS 2005). 2005 IEEE/RSJ International Conference on, pages 820–825, Aug 2005. [Decuir et al., 2004] John D. Decuir, Todd Kozuki, Victor Matsuda, and Jon Piazza. A friendly face in robotics: Sony’s aibo entertainment robot as an educational tool. Computers in Entertainment, 2(2):14, 2004. [Kecsap, 2010] Kecsap. Porting URBI 2.x for AIBO. biburlhttp://kecsapblog.blogspot.com.es/2010/12/portingurbi-2x-for-aibo.html, 2010. [Kertész, 2013] Csaba Kertész. Improvements in the native development environment for sony AIBO. IJIMAI, 2(3):50–54, 2013. [Martı́nez Gómez, 2006] Jesús Martı́nez Gómez. Diseño de un teleoperador con detección de colisiones para robots AIBO. Master’s thesis, Universidad de Castilla-La Mancha, Spain, 2006. [Montero-Mora et al., 2009] Ángel Montero-Mora, Gustavo Méndez-Muñoz, and José-Ramón Domı́nguez-Rodrı́guez. Metodologı́as de diseño de comportamientos para AIBO ERS7. Master’s thesis, Universidad Complutense de Madrid, Spain, 2009. [Morales-Jiménez, 2007] Jesús Morales-Jiménez. Localización de objetos y posicionamiento en el escenario deRoboCup Four-Legged con un robot AIBO. Master’s thesis, Universidad de Castilla-La Mancha, Spain, 2007. [Nardi and Lima, 2012] Daniele Nardi and Pedro Lima. RoboCup: the robot soccer world cup. In Pedro Lima and Rui Cortesao, editors, Proceedings of the IROS-13 Workshop on Robot Competitions: Benchmarking, Technology Transfer and Education. IEEE, 2012. [Pérez et al., 2010] Xavier Pérez, Cecilio Angulo, Sergio Escalera, and Diego E. Pardo. Vision-based navigation and reinforcement learning path finding for social robots. In Jornadas ARCA 2010, June 2010. [Quigley et al., 2009] Morgan Quigley, Ken Conley, Brian P. Gerkey, Josh Faust, Tully Foote, Jeremy Leibs, Rob Wheeler, and Andrew Y. Ng. ROS: An open-source robot operating system. In ICRA Workshop on Open Source Software, 2009. [Téllez et al., 2006] Ricardo A. Téllez, Cecilio Angulo, and Diego E. Pardo. Evolving the walking behaviour of a 12 90 dof quadruped using a distributed neural architecture. In AukeJan Ijspeert, Toshimitsu Masuzawa, and Shinji Kusumoto, editors, Biologically Inspired Approaches to Advanced Information Technology, volume 3853 of Lecture Notes in Computer Science, pages 5–19. Springer Berlin Heidelberg, 2006. 91 Ideas para la aplicación de la optimización por colonia de hormigas al desarrollo sostenible y eficiencia energética J. M. Marquez Vázquez1 , J. A. Ortega Ramírez2, L. González-Abril3 y F. Velasco Morente3 1 División de Aplicaciones de Negocio. Simosa IT. Abengoa. jose.marquez@abengoa.com 2 Dep. de Lenguajes y Sistemas Informáticos, Univ. de Sevilla, jortega@us.es 3 Dep. de Economía Aplicada, Univ. de Sevilla. {luisgon,velasco}@us.es Abstract El objetivo de este artículo es presentar un nuevo contexto para la aplicación del algoritmo optimización por colonias de hormigas. Concretamente, el contexto que se define este trabajo es el resultante de la implantación de un sistema de medición continua de la concentración de partículas contaminantes en el aire en grandes ciudades, mediante la utilización de una red de sensores instalados en los autobuses de la red de transporte público. El algoritmo de optimización por colonias de hormigas se utiliza para obtener el camino óptimo de ida y vuelta y con menor concentración de polen entre dos puntos de la ciudad. El sistema descrito en este trabajo no está relacionado con ningún proyecto real y su propósito es únicamente mostrar una de sus posibles aplicaciones desde un punto de vista teórico. 1 Introducción Una de las peculiaridades del algoritmo presentado en la tesis “Cálculo de rutas en sistemas de e-learning utilizando un algoritmo de optimización por colonias de hormigas” [1] consiste en que el rol de hormiga es desempeñado por personas reales, a diferencia de lo que sucede en el resto de algoritmos de optimización por colonia de hormigas [2], dónde son agentes software los que sin mediar intervención humana, desempeñan este papel. En [1] a partir del comportamiento de los alumnos y de su perfil el algoritmo calcula el itinerario de aprendizaje que, a priori, resultaría más beneficioso. En este trabajo aprovechamos la misma para un propósito totalmente diferente: utilizar el comportamiento de las personas para obtener información acerca de la contaminación ambiental y procesarlos para ofrecer mapas de contaminación de una ciudad. Un antecedente de esta aplicación del uso de pequeños sensores implantados en autobuses urbanos para la monitorización de parámetros ambientales lo encontramos en el proyecto EkoBus, llevado a cabo en las ciudades de Belgrado y Pancevo en Serbia con la colaboración de Ericsson y dentro del marco de proyectos SmartSantander financiado por el Banco Santander. 2 Contexto Las cuestiones ambientales y las restricciones energéticas son uno de los pilares fundamentales sobre los que se apoya la idea de ciudad inteligente [3]. En una ciudad inteligente, la captura de datos que ayude a la toma de medidas orientadas a la reducción de la contaminación (del aire, acústica, etc.) es una de sus razones de ser. Algunas iniciativas para la medición de la contaminación ya han sido reconocidas y premiadas a nivel mundial. Algunas son españolas, como el sensor SmartCitizen1, un sensor construido sobre la placa Arduino2 y que permite a cualquier ciudadano medir los niveles de contaminación y de ruido en su entorno y, en presencia de una red wifi, compartir la información en tiempo real en la red. Recientemente, han sido numerosos los proyectos relacionados con la adquisición de datos medioambientales en ciudades inteligentes [4][5][6][7][8], animados en gran medida por la capacidad de placas de bajo coste y fácil programación como ya la mencionada Arduino, Raspberry Pi3 o los sensores Waspmote4. La aplicación inmediata es la construcción de un mapa de contaminación ambiental, utilizando la variable tiempo para detectar patrones de contaminación periódicos debidos a la actividad humana, como el tráfico o la actividad industrial. El estudio de este mapa de contaminación facilitará la toma de decisiones encaminadas a la minimización de la contaminación por la actividad humana, contribuyendo a la construcción de una ciudad más saludable. 1 2 3 4 http://www.smartcitizen.me/ http://www.arduino.cc/ http://www.raspberrypi.org/ http://www.libelium.com/es/products/waspmote/ 92 La solución que se describe en este trabajo está pensada para ciudades de tamaño medio-grande que cuenten con red de transporte urbano (autobuses o taxis) en superficie y zonas de que actúen como fuentes y sumideros de tráfico en determinadas franjas horarias (campus universitarios, polígonos industriales, puerto, etc.). Actualmente, en una ciudad como Sevilla, se utilizan siete cabinas de vigilancia de la calidad del aire como las de la Figura 1 repartidas por la ciudad según la distribución de la Figura 2. Tabla 1: Valor de referencia (100) para cada contaminante Contaminante Concentración en µg/m3 asociada al valor del índice 100 Observaciones SO2 125 Valor medio en 24 horas NO2 200 Valor medio en 1 hora PM10 50 Valor medido en 24 horas CO 10000 Valor medido en 8 horas O3(3) 120 Valor medio en 8 horas Tabla 2: Valores cualitativos para la calidad del aire Figura 1: Cabina de vigilancia de la calidad del aire situada en el Parque de los Príncipes (Sevilla). Todas estas cabinas permiten obtener muestras de los siguientes contaminantes: - Partículas en suspensión de tamaño inferior a 10 micras (PM10). - Dióxido de azufre (SO2) - Monóxido de Carbono (CO) - Óxidos de Nitrógeno (NO y NO2) - Ozono (O3) Los valores cualitativos, entendibles por la población, para el nivel de calidad del aire: Buena, Admisible, Mala y Muy Mala, se deciden en función de un índice de referencia (Tabla 2) regulado por el Real Decreto 102/2011 [9] (Tabla 1). Valor Calidad del aire 0-50 Buena 51-100 Admisible 101-150 Mala >150 Muy mala Como se puede observar en la Figura 3, el nivel de contaminantes detectado por una misma cabina de vigilancia varía según la franja horaria, por lo que la calidad del aire también puede variar en términos cualitativos. 93 El monóxido de carbono (CO) es un gas poco común en la atmósfera natural. Se forma como consecuencia de combustiones incompletas, Se produce por la combustión deficiente de sustancias como gas, gasolina, keroseno, carbón, petróleo, tabaco o madera. Las chimeneas, las calderas, los calentadores de agua o calefactores y los aparatos domésticos que queman combustible, como las estufas de la cocina o los calentadores a queroseno, también pueden producirlo si no están funcionando bien. Los vehículos detenidos con el motor encendido también lo despiden. Es altamente tóxico, mucho más letal que el dióxido de carbono. Observando las muestras tomadas de cualquier día en cualquier cabina de vigilancia es fácil detectar los picos de emisión de este gas y relacionarlo con la actividad humana: las mayores concentraciones se producen de 7:30h a 14:00h y en menor medida, por la tarde de 16:00h a 20:00h. Por tanto, el estudio de estas muestras y el análisis de causas relacionadas con la actividad humana, puede ayudar a tomar medidas sobre dicha actividad que repercutan en una mejora de la calidad del aire y por consiguiente, un mapa de calidad del aire más detallado permitirá ajustar estas medidas con más precisión en cada zona de la ciudad. Figura 2: Red de vigilancia ambiental de Sevilla. Ubicación de las cabinas de vigilancia de la calidad del aire. Informes recientes [13], indican que el 95% de los españoles respira aire contaminado, por encima de los niveles máximos recomendados por la Organización Mundial de la Salud (OMS). La creación de mapas detallados por niveles de contaminantes (concentración de partículas, por ejemplo) permitiría realizar un seguimiento de la evolución de los mismos por la zonas o aglomeraciones de la ciudad y comprobar con mayor exactitud si los ciudadanos están expuestos a niveles superiores a los establecidos por las diferentes normativas regulatorias. Por ejemplo, permitiría comprobar la evolución y dirección de una intrusión de polvo sahariano o de una nube de cenizas proveniente de la erupción de un volcán. Estos mapas podrían ser de gran utilidad tanto para el desarrollo sostenible, en cuanto a la reducción de emisiones contaminantes, como para la salud de los ciudadanos puesto que facilitarían el estudio comparativo con mapas de enfermedades y la correlación con ciertos niveles de contaminación para la aparición de enfermedades el aparato respiratorio o incluso la incidencia en determinados tipos de cáncer [14]. 3 Figura 3: Variación de valores de contaminantes del aire registrados en la cabina del Parque de los Príncipes5 desde las 0h a las 23:59h del (18/06/2014). 5 Informe diario de calidad del aire ambiente. Red de vigilancia y control de calidad del aire de Andalucía. Consejería de Medio Ambiente. Junta de Andalucía. Descripción de la solución La solución consiste en una red de sensores acoplados en el techo de algunos autobuses de la red de transporte urbano, lo que permite cubrir casi gran parte de la ciudad con un reducido número de sensores. 94 En aquellas zonas dónde las líneas de transporte urbano sean escasas o inexistentes, se colocarían sensores fijos en el mobiliario urbano, de forma que no fueran fácilmente accesibles para evitar que fueran robados o víctimas de actos vandálicos. Los sensores cuentan con sistema de posicionamiento que permitirá asociar a cada muestra las coordenadas GPS dónde fue tomada. Cada sensor recogerá una muestra periódicamente y la enviará por GPRS al servidor central, que la almacenará y asociará al sector correspondiente de la ciudad a partir de las coordenadas recibidas. En este sentido, la ciudad debe ser dividida en sectores (una cuadrícula) y el tamaño de cada sector, puede escogerse según la precisión deseada. A menor tamaño de los sectores, mayor precisión tendrá del mapa de contaminación resultante, pero será necesario tomar un mayor número de muestras. Utilizando la misma división que la empleada en los mapas de la empresa pública de Transportes de Sevilla (Figura 4), resulta una sectorización de la ciudad compuesta por 90 sectores de igual dimensión, lo que aportará una información más detallada que la actual división en 6 sectores (Figura 2). nimiento de la solución optando por su instalación en autobuses. El sensor elegido es el modelo Smart Enviroment de Libelium, dotado de panel solar para dotarle de autonomía. La batería de 6600 mAh combinado con el modo de funcionamiento del sensor, que se mantiene en stand-by mientras no tenga que obtener muestra, hace que la autonomía de cada sensor sea suficiente para operar durante semanas de poca luz (invierno). Cada sensor puede operar con las diferentes redes6 de comunicación que proporcionan los operadores de telefonía actuales y es capaz de obtener las coordenadas GPS desde la que se toma la muestra. Hay que tener en cuenta el coste de cada línea asociada a cada sensor en los costes de operación, siendo recomendable escoger la tarifa de datos más económica puesto que el propósito a que se destinarán no generará un gran tráfico de datos. La ubicación de los sensores tendría lugar en el techo de los autobuses, como se realizó en el ya citado proyecto EkoBus. La toma se realizará transcurrido un intervalo de tiempo determinado y aprovechando siempre que el vehículo esté parado, para que la velocidad de marcha no influya en el valor obtenido de la muestra. Será necesario, transcurrido el intervalo de tiempo que fija el mínimo tiempo entre dos tomas, detectar la velocidad instantánea del vehículo para comprobar que está parado. La velocidad puede ser calculada a partir de la información del GPS, a partir de la variación de la posición respecto al tiempo, del desplazamiento Doppler de las frecuencias de transmisión de los satélites, o bien combinando ambos métodos [11]. Una vez recogida la muestra y encapsulada en un mensaje XML sería enviada vía HTTPS al servidor central encargado de almacenarla en la base de datos para su posterior procesado. En el servidor central, una función calculará el sector a partir de las coordenadas GPS recibidas con cada muestra, de forma que cada muestra quede asociada a un sector de la ciudad. Figura 4: División de Sevilla en 90 sectores Si observamos la división por sectores de la ciudad notamos que, de los 90 sectores, 23 no cuentan con ninguna línea de autobús, por lo que nunca recogerían muestra. También se observa que esos sectores no cuentan núcleos de población, por lo que tampoco son de interés puesto que se pretende medir la calidad del aire en núcleos urbanos. Por tanto en total, contamos con un área de muestreo compuesta por 67 sectores. Si colocásemos un sensor fijo en cada sector, necesitaríamos 67 sensores. Colocando un sensor en un autobús de cada línea necesitaremos sólo 43 sensores, con lo que reducimos los costes de implantación, operación y mante- De esta forma una red de 43 sensores, podría mantener un mapa de contaminación del aire actualizado casi en tiempo rea con un coste de implantación, operación y mantenimiento realmente bajo para una ciudad como Sevilla. 4 Aplicaciones de la optimización por Colonia de Hormigas 6 GSM/GPRS/3G/UMTS/WCDMA/HSPA 95 El algoritmo de optimización por colonia de hormigas (Ant Colony Optimization, ACO) es una técnica probabilística para solucionar problemas computacionales que pueden reducirse a buscar los mejores caminos o rutas en grafos que fue propuesto por Marco Dorigo en su tesis doctoral [2]. Se basa en la imitación del comportamiento de las hormigas, que van dejando un rastro de feromonas por los caminos que van explorando que ayudan al resto de hormigas de la colonia a elegir, con mayor probabilidad, el camino con mayor cantidad de feromonas. La evaporación progresiva del rastro de feromonas depositado por cada hormiga junto con unas deposiciones, condicionadas en cantidad en función del éxito obtenido (haber encontrado comida o no por ese camino), de nuevas hormigas hacen que el camino con un nivel de feromonas mayor acabe siendo el seguido por toda la colonia. Los algoritmos de optimización por colonias de hormigas son aplicados en muchos problemas combinatorios. Muchos métodos derivados han sido adaptados a problemas dinámicos en variables reales, problemas estocásticos, programación paralela y multi-objetivo. Incluso han sido usados para producir soluciones bastante cercanas a las soluciones óptimas del problema del viajante. ACO tiene una ventaja clara sobre otro enfoques como el recocido simulado (simulated annealing) y los algoritmos genéticos en problemas similares cuando el grafo puede cambiar su estructura de manera dinámica: el algoritmo de colonia de hormigas puede seguir corriendo continuamente y adaptar los cambios en tiempo real. Esto es de interés en los campos de enrutamiento de redes y en los sistemas de transportes urbanos, como en este caso, dónde una avería o accidente puede ocasionar un corte o el cambio de sentido de una calle. - Después de cada iteración, se evaporan las feromonas de acuerdo a una tasa de evaporación predefinida. Camino con menor concentración de partículas Una posible aplicación en de ACO a la solución descrita anteriormente para monitorización de la calidad del aire, consistiría en averiguar el camino de menor concentración de partículas en el aire entre dos sectores diferentes de la ciudad. Por ejemplo, sería de utilidad para aquellos peatones que sufren de alergia a determinados tipos de polen, que podrían elegir el camino de ida y vuelta con menor concentración de partículas, que normalmente será el de menor concentración de polen. El polen de las gramíneas y en es especial el polen del olivo es particularmente en el sur de España, uno de los aeroalergenos más importantes, siendo la principal causa de polinosis que llega a afectar en la provincia de Jaén hasta al 84% de la población7. Los primeros registros polínicos comienzan a detectarse durante el mes de marzo, alcanzándose las concentraciones más elevadas en la primera y segunda semana de mayo normalmente. Hasta bien entrado el mes de junio se mantienen valores importantes de polen de olivo en el aire que oscilan entre los 250 g/m3 en Almería y los 1800 g/ m3 de Jaén. El primer algoritmo de colonia de hormigas, llamado Ant System, tenía como objetivo resolver el problema del viajante, que consiste en encontrar el camino hamiltoniano más corto en un grafo completo. El algoritmo está basado en un conjunto de hormigas, cada una haciendo una posible ruta entre las ciudades teniendo en cuenta las siguientes reglas: - Debe visitar cada nodo sólo una vez; - Una ciudad distante tiene menor posibilidad de ser elegida (Visibilidad); - Cuanto más intenso es el rastro de feromonas de una arista entre dos ciudades, mayor es la probabilidad de que esa arista sea elegida; - Después de haber completado su recorrido, las feromonas depositadas por cada hormiga en todas las aristas, es inversamente proporcional a la distancia total de camino; Figura 5: Niveles (cualitativos) de polen de gramíneas y olivo a mediados de mayo En cambio dentro de las ciudades las concentraciones de pólenes puede variar en función de la mayor o menor proximidad a zonas de cultivos o de la protección que puedan ofrecer la disposición de los edificios y para esto sería de interés contar con un mapa de contaminación detallado por 7 Según datos de la Red de Aerobiología de Andalucía, obtenidos por la Estación de Control Aerobiológico de Granada. http://www.ugr.es/~aerobio/olivo.htm 96 sectores sobre el que poder aplicar ACO para seleccionar el camino de menor concentración de polen para un peatón alérgico (no sería posible elegir el tipo de polen). En este caso, los nodos representarían sectores de la ciudad. Dos sectores estarán conectados por tantos caminos como existan en el callejero que lo comuniquen, siendo la distancia de cada camino la distancia a recorrer por él. Este dato puede obtenerse de sistemas de información geográficas o callejeros como Google Maps8 que ofrecen un API9 para el desarrollo e integración de aplicaciones de terceros. entre 100 y 200 metros, tal y como se puede observar en la gráfica de la Distancia final 250 200 150 100 50 El valor de concentración de partículas para cada sector sería el valor medio de todas las muestras tomadas en el mismo sector durante la última hora. Pensemos en la solución para el polen del olivo, cuyo tamaño oscila entre las 18 y las 31 micras. La distancia a considerar entre dos nodos será también un factor de la contaminación, de forma que se prime en cierta medida aquellos caminos con mejor calidad del aire. () = − () (1) En la ecuación anterior () representa la distancia que el modelo para el sistema ACO asignará al camino entre el origen x y el destino y a través del itinerario z y que será función, como veremos tanto de la distancia real entre x e y, dxy(z), como de la medida de contaminación, en este caso de partículas (polen), existente en el sector destino, que vendrá dado por la función Ky que se calcula según la ecuación (2). La constante k, es la constante o asíntota con la que queremos penalizar el recorrido en caso de una mala calidad del aire y debe ser siempre k > 1. Por ejemplo, un valor k=2 hará que para valores infinitos de contaminación la distancia final en el modelo se duplique con respecto a la original. 1 = < 50 ≥ 50 (2) La ecuación (2) hace que se mantenga la distancia cuando el valor medio de concentración de partículas mayores de 10 micras, coincide o es inferior al valor límite de referencia, esto es, cuando cy ≤ 50 g/m3. Para concentraciones admisibles, malas o muy malas (cy ≥ 50 g/m3 ) la distancia final en el modelo se verá incrementada. 0 0 250 500 750 1000 1250 1500 1750 2000 Figura 6: Variación de d'xy(z) para k=2 y dxy(z)=100 según valor de cy A partir de esta función de distancia y aplicando el algoritmo ACO deseado, por ejemplo el algoritmo Ant System original de Marco Dorigo [12], podemos obtener una aproximación bastante buena al camino óptimo entendiendo como óptimo al camino más corto y con una menor concentracón de polen. La función de distancia en este trabajo definida (1) es bastante básica. Podría utilizarse una función más real, que modele la cantidad de polen inhalado en función de los metros recorridos de camino y que sería lo que interesaría optimizar, pero creemos que como punto de partida, la función distancia definida puede ofrecer buenos resultados. 5 Inconvenientes para la aplicación Entre los inconvenientes para la aplicación de las características del descrito en este trabajo podemos citar: El primer inconveniente lo constituye el marco legal. El propio Real Decreto 102/2011, de 28 de enero, relativo a la mejora de la calidad del aire, indica en el artículo 6 el Capítulo II, de evaluación de la calidad del aire lo siguiente: 3. La evaluación de la calidad del aire ambiente se realizará, dependiendo del nivel de los contaminantes con respecto a los umbrales a los que se refiere el anexo II, utilizando mediciones fijas, técnicas de modelización, campañas de mediciones representativas, mediciones indicativas o investigaciones, o una combinación de todos o algunos de estos métodos. La distancia final () para la arista del grafo en nuestro modelo que una los puntos x e y a través del itinerario z del callejero, suponiendo que la longitud real de z es de 100 metros, variará según el valor de contaminación cy con k=2 El punto 3 del artículo 6 hace referencia a mediciones fijas, pero no a puntos de medición móviles. No obstante podrían interpretarse nuestro caso como un caso especial de campaña de medición representativa, pero no queda claro. 8 El siguiente punto del artículo 6 sí que indica claramente que será obligatorio en aquellos puntos en los que se pueda 9 http://maps.google.com https://developers.google.com/maps/?hl=es 97 superar el límite de referencia efectuar mediciones en lugares fijos: 4. Será obligatorio efectuar mediciones de la calidad del aire en lugares fijos en las zonas y aglomeraciones donde los niveles superen los umbrales superiores de evaluación establecidos en el anexo II. Dichas mediciones fijas podrán complementarse con modelización o mediciones indicativas para obtener información adecuada sobre la distribución espacial de la calidad del aire ambiente. En este caso las mediciones fijas serían las efectuadas por las cabinas fijas ya existentes, pero ¿pueden considerarse las medidas efectuadas por los sensores instalados en los autobuses mediciones indicativas? Creemos que sí, pero no está del todo claro. Otro inconveniente en sí es la necesidad de contar con el apoyo de la administración pública para llevar este proyecto a una experimentación real. 6 Conclusiones y trabajo futuro En el presente trabajo se describe como desplegar una red de sensores móviles que faciliten la captura de datos para la evaluación de la calidad del aire de cara a la construcción de un mapa detallado de la calidad del aire en una ciudad, lo que facilitará la toma de decisiones para actuar sobre aquellos elementos de la actividad humana que influyen en un empeoramiento de la calidad del aire: tráfico, emisiones de la industria, control de residuos, etc. Por consiguiente, contribuirá a un desarrollo más sostenible y podrá facilitar el ahorro energético (control del tráfico, de las emisiones de CO2 de la industria, etc). Además se introduce la aplicación del algoritmo de optimización por colonias de hormigas para, a partir del modelo construido con los datos obtenidos por la red de sensores descrita, obtener caminos óptimos en los que se optimicen la distancia recorrida entre dos puntos con la mejor calidad de aire posible, persiguiendo en este trabajo en particular, el camino con menor concentración de polen del olivo (partículas mayores de 10 micras). Este trabajo es una reflexión teórica sobre las posibilidades de aplicación de ACO en el contexto descrito, quedando como trabajo futuro la construcción del sistema y el modelo descrito y realización de un piloto con un conjunto reducido de sensores y vehículos particulares. 7 Referencias [1] Márquez, J. M. (2012). Cálculo de rutas en sistemas de e-learning utilizando un algoritmo de optimización por colonias de hormigas. [2] Dorigo, M. (1992). Optimization, Learning and Natural Algorithms, PhD thesis, Politecnico di Milano, Italia, 1992. [3] Lyon, Smart City: métropole intelligente et durable. http://www.economie.grandlyon.com/smart-citylyon-france.346.0.html [4] Contribución al diseño, definición e implementación de una plataforma de investigación para la Internet del futuro, basada en un despliegue masivo de redes de sensores inalámbricos heterogéneos, en el marco de la Ciudad Inteligente. Tesis Doctoral. J. A. Galache López. Septiembre de 2013. Universidad de Cantabria. Departamento de Ingeniería Telemática. Accesible online: http://repositorio.unican.es/xmlui/bitstream/handle/ 10902/4422/Tesis%20JAGL.pdf?sequence=1 [5] Miranda Pérez, S. (2014) Desarrollo de una red telemática para la adquisición de datos medioambientales mediante red de sensores en el municipio de Molins de Rei. Proyecto Fin de Carrera. Integración de Redes Telemáticas. Universidad Oberta de Cataluña. Febrero de 2014. Accesible online: http://openaccess.uoc.edu/webapps/o2/bitstream/10 609/27925/6/smirandapeTFC0114memoria.pdf [6] Proyecto Rescátame. Red Extensa de Sensores de Calidad del Aire para una Administración del Tráfico urbano Amigable con el Medio ambientE. Proyecto LIFE de la UE. http://www.rescatame.eu/ [7] Gómez Pulido, J. A. et al. (2012) Experiencias con redes de sensores inalámbricos en la Escuela Politécnica de la Universidad de Extremadura. Jornadas de la Sociedad de Arquitectura y Tecnología de Computadores (SARTECO) 2012. Universidad Miguel Hernández. Elche, 19-21 de Septiembre de 2012. Disponible online: http://www.jornadassarteco.org/js2012/papers/paper _8.pdf [8] Smart City project in Serbia for environmental monitoring by public transportation. http://www.libelium.com/smart_city_environmental _parameters_public_transportation_waspmote [9] Real Decreto 102/2011, de 28 de enero, relativo a la mejora de la calidad del aire. Boletín Oficial del Estado. Núm 25, 29 de enero de 2011. 98 http://www.boe.es/boe/dias/2011/01/29/pdfs/BOEA-2011-1645.pdf [10] Proyecto EkoBus. https://mobiledevelopmentintelligence.com/product s/3138-ekobus-project [11] Molina Cantero, F. J. GPS. Departamento de Tecnología Electrónica. Universidad de Sevilla. http://www.dte.us.es/ing_inf/sac/material/GPS.pdf [12] Dorigo, M. et al. (1996). Ant System: Optimization by a colony of cooperating agents. IEEE Transactions on sistems, man and cybernetics. Part B: cybernetics. Vol. 26. No 1. Febrero 1996. [13] Ecologistas en Acción (2014). La calidad del aire en el estado español durante 2013. http://www.ecologistasenaccion.org/IMG/pdf/infor me_calidad_aire_2013.pdf [14] López-Abente et al. (2014). Time trends in municipal distributions patterns of cancer mortality in Spain. BMC Cancer 2014, 14:535. doi: 10.1186/14712407-14-535. 99 Creativity Support System for cake design Francisco J. Ruiz1, Cristóbal Raya1, Albert Samà1 and Núria Agell2 1 Automatic Control Department, BarcelonaTech. Vilanova i la Geltrú, Spain 2 ESADE Business School- Ramon Llull University, Sant Cugat, Spain Abstract In this paper, a new formulation of Creativity is presented in the context of Creativity Support Systems. This formulation is based on the central ideas of the theory of Boden. It redefines some concepts such as appropriateness and relevance in order to allow the implementation of a support system for creative people. The approach is based on the conceptual space proposed by Boden and formalized by other authors. The presented formulation is applied to a real case in which a new chocolate cake with fruit is design. Data collected from a Spanish chocolate chef has been used to validate the proposed system. Experimental results show that the formulation presented is not only useful for understanding how the creative mechanisms of design works, but also facilitates its implementation in real cases to support creativity processes. 1. Introduction Creativity Support Systems (CSS) can be defined as systems capable of enhancing human creativity without necessarily being creative themselves. They can act as a creative collaborator with scientists, designers, artists and engineers. CSS consists of applying technology to assist humans in thinking outside the box and expanding their exploration boundaries generating ideas that have never been imagined before [1]. Creativity can be found in almost all human activities, not only in artistic activities such as paintings, sculpture, music, literature or architecture, but also in engineering, software development, scientific discoveries and others. Creativity is assumed to be closely related to the rational decisionmaking process. In the literature, decision-making processes are normally considered to be composed by four steps: Framing the decision, generating alternatives, evaluating the alternatives and choosing and implementing the chosen alternative. Creativity is mainly associated to the second step: generation of alternatives. Alternatives are normally generated by reviewing processes that were used in the past or were used in different frameworks with subtly common aspects. The skills of creative people are on the one hand to find these apparently different frameworks with common characteristics and, on the other hand, to evaluate the alternatives taking into account the relation between frameworks. CSS has a potential role in the food industry. Today, a significant portion of a food services or manufacturers’ business is focused on generating new ingredient combinations and finding new flavors that will be a commercial success. This research will allow chefs and other food professionals to be more creative and to shorten the time to bring a new flavor to market by helping them in the development process. In this paper, a new formulation of the central ideas of the well-established theory of Boden about creativity is presented. This new formulation redefines some terms and also reviews the formal mechanisms of exploratory and transformational creativity based on a conceptual space proposed by Boden and formalized by others authors in a way that facilitates the implementation of these mechanisms. To illustrate this formulation, a computational system is developed and tested in the support process of a creative chocolate designer. The study has been conducted jointly with the chocolate chef Oriol Balaguer team (http://www.oriolbalaguer.com). Oriol Balaguer is one of the Spanish most awarded pastry chef who is actively involved in the research and development of new products. The remaining of the paper is organized as follows: first, a literature review on computational creativity is conducted. In the third section, the proposed CSS methodology is presented. A real case example where the methodology proposed is applied is given in section four and, finally, in the last section conclusions and future work are discussed. 2. Computational creativity: State of the art Creativity should be regarded as one of the highest-level cognitive functions of the human mind. It is a phenomenon whereby something new and valuable is produced such as 100 an idea, a problem solution, a marketing strategy, a literary work, a painting, a musical composition or a new cookery recipe. Authors have diverged in the precise definition of creativity beyond these two features: originality (new) and appropriateness (valuable). One of the few attempts to address the problem of creative behavior and its relation with Artificial Intelligence was done by Margaret Boden [3][4]. She aimed to study creativity processes from a philosophical viewpoint focusing on understanding human creativity rather than trying to create a creative machine. Boden distinguishes between creativity that is novel merely to the agent that produces it and creativity that is recognized as novel by the society. The first is usually known as P-creativity (or “psychological creativity”) and the second is known as H-creativity (or “historical creativity”). The most important contribution of Boden study is the introduction of the idea of conceptual space composed by partial or complete concepts. She conceives the process of creativity as the location and identification of a concept in this conceptual space. The creative process can be performed by exploring or transforming this conceptual space. If the conceptual space is defined through a set of rules, whenever these rules are satisfied, the creative process can be thought as finding new and satisfactory elements of this space. This is the kind of creativity which Boden calls exploratory creativity. If the rules defining the conceptual space can be changed, then the process is called transformational creativity. However, from Boden’s study, it is not clear how the rules give rise to a particular conceptual space and, therefore, what is the true difference between exploring the space and transforming it. In order to clarify and to formalize the creative process, G. A. Wigging [5] presented several papers in which emphasized the notion of search as the central mechanism for exploratory creativity and the notion of meta-level search related to transformational creativity. Wiggings proposes to define a universe of possibilities U which is a superset of the conceptual space. The universe is a multidimensional space, whose dimensions are capable of representing all possible concepts which are relevant to the domain in which we wish to be creative. For transformational creativity to be meaningful, all conceptual spaces are required to be subsets of U. Wiggings conceives exploratory creativity as a search of concepts in a specific conceptual space. The process involves three set of rules that can be denoted as acceptability, appropriateness and strategy. The first set of rules is associated to the conceptual space membership. Moreover, acceptability is related to the style. On the other hand, appropriateness rules are related to the value of the concept. Valuable concepts may become successful regardless of being acceptable according to the rules associated to the acceptability. This second set of rules that defines the value of a concept is much difficult to define because it depends on cultural and aesthetic aspects, specific context, personal mood, etc. It is important to remark that, in this context, appropriate means suitable to the task, but above all original and surprising. Finally, there exist a third set of rules associated to the search strategy. For instance, some people prefer to work “top-down”, others “bottom-up”, others rely on adhoc methodologies, using informed or uninformed heuristics and even at random. Wiggings points out that by separating acceptability and strategy rules, situations where different designers, each with a personal way of finding new ideas, are working within the same style can be described (a shared notion of acceptability). From Wiggins perspective, the interaction of these three sets of rules (acceptability, appropriateness and strategy) leads to the exploratory creativity process. However, although working within three invariant sets of rules may produce interesting results, a higher form of creativity can result from making changes of these rules (transformational creativity). In other words, on the one hand, exploratory creativity consists of finding a concept in a specific conceptual space, following a specific strategy and assessing it using a specific appropriateness set of rules. On the other hand, transformational creativity consists of the same process than exploratory creativity but changing the conceptual space, the search strategy or the appropriateness assessment. Besides Wiggings work, there have been other formalizations of specific aspects of the computational creative process [6][7][8]. Although these formalizations are very helpful in clarifying the nature of creative computation and have enabled some applications in diverse domains including graphic design, creative language, video game design and visual arts [9], the details of most of them are unspecified and the concepts they include are not easy to implement. The current paper starts from the central ideas of Boden and Wiggings and redefines the formal mechanisms of exploratory and transformational creativity in a way which facilitates the implementation of these mechanisms. 3. The proposed CSS As in Wiggins theory, let’s start by considering a universal set of all concepts, U. The idea is that U is universal enough to contain concepts for every type of artifacts that might ever be conceived. In addition, we define a framework F, as the object F={C, a(), r()} where C⊂ U is the H-conceptual space (or “historical conceptual space”) formed by all concepts related to the framework F, and a() and r() are maps from U to R. a() is the appropriateness and r() is the relevance. The first map is related to the success of considering this concept while the second one is an objective measure of the relation of the concept with the framework. The relevance is the result of the experts’ activities. A naïve relevance measure might be a 0/1 value (1 if x∈C and 0 otherwise) but it is possible to consider more complex measures containing more information about the relation between the 101 concept and the framework. The underlying idea is that, although evaluating the appropriateness requires some kind of talent or expertise, relevance evaluation can be performed by means of an objective analysis of other problems in the framework. Thus a concept with high relevance in a framework does not necessarily have high appropriateness. In fact, an original concept always has low relevance in the considered framework. In the proposed CSS, it is assumed that an expert i on a given framework Fo ={C0, a0(), r0()} knows value ao(x) for some subset Ci0 of C0, but values ao(y) for those concepts y∉Ci0 are unknown by the expert. Following Boden, we call Ci0 the psychological or P-conceptual space, that is, the concept space associated to the framework Fo and to the expert i. At the same time, the expert does not necessarily know ai(x) for another framework Fi. Thus, it is considered that expertise of the expert is only guaranteed in a single framework. In this model, we consider that function a() depends on the framework but not on the expert. The difference between experts of the same framework is related to the different P-conceptual spaces, all them subsets of the Hconceptual space. In addition, the activity of an expert is not only to evaluate concepts but specially selecting them following some selection strategy. Once a new concept is selected and applied by the expert, if this does not belong to the P-conceptual space, the expert can obtain the value of a() and hence, the P-conceptual space and/or the Hconceptual space is extended to include this new concept. Let us consider a set of different frameworks F1, F2,…, Fm. If x∈ U is a concept, we can consider the relevance vector of x respect to the set of frameworks F1, F2,…, Fm as Φ(x)=(r1(x), r2(x),…, rm(x)). This vector describes the membership relation of x to the set of frameworks F1, F2,…, Fm . If x∉Ci, then ri(x)=0. Following Boden notation, if the expert only explores the conceptual space Ci0, the task is just exploratory creativity. If the expert explores beyond Ci0 by extending it, transformational creativity is then performed. The utility of CSS relies on proposing new concepts y∈ U, y∉Ci0 to the expert from the relevance information of these concepts with respect to frameworks different to the one initially considered and from the relation among all these frameworks. The system that we consider is able to propose new concepts y∈ U, y∉ Ci0 with likely high a0(y). In order to predict how valuable a new concept y is, i.e a0(y), our hypothesis is that no obvious relations between different frameworks exist, therefore the appropriateness a0(y) and the relevance vector Φ(y) are closely related. In this sense, it is considered that concepts with similar relevance vectors on the current framework should have similar appropriateness function. This hypothesis could not be true for a small set of frameworks but seems to be true for larger ones. Given the relation between appropriateness and relevance, our CSS will use the set Ci0, or a subset of it, as a training set in a learning system in order to extract the relation between appropriateness in F0 and the relevance vector in a set of frameworks F1, F2,…, Fm. Once trained, we only have to feed the CSS with other concepts and the system will propose those concepts with expected high appropriateness. We propose in this study an illustrative example to validate our formulation and hypothesis. The example will highlight the relation between the appropriateness in a given framework with the relevance of the concept respect other apparently distinct frameworks. 4. Experimental framework: designing a new chocolate cake with fruits To illustrate the implementation of the ideas presented in the previous section, let us consider the following creative problem: creating a new chocolate cake by combining dark chocolate with a fruit to obtain a highly accepted product. The expert that has to create the new chocolate cake has a large experience in combining chocolate with many different ingredients –cheese, liqueurs, olive oil, nuts and, of course, fruits. Due to his experience, he knows whether several combinations of specific types of chocolates and fruits are suitable or not but, of course, he does not know how well chocolate combines with all existing fruits. Thus, a CSS is going to be developed according to the methodology presented in the previous section in order to assist the expert in creating suitable new combination. In our case, since we constrained the problem to combine fruit and dark chocolate, the universe U is formed by all fruits. The P-conceptual space Ci0, which consists in all fruits that the expert knows whether they blends in well or not with dark chocolate, is just a subset of U. Moreover, the expert is able to assign a value a0 (x) for all x∈ Ci0, which is represented as a qualitative value (very bad, bad,…, good and very good). The objective of our CSS consists in suggesting other fruits y∈ U, y∉ Ci0, with a high predicted value function a0 (y), i.e. they are valuable to the expert. Following the proposed CSS methodology, we can learn the value a() of a fruit respect to the dark chocolate (framework F0) through the way it is related to other frameworks. In this example we are considering only frameworks related with recipes and ingredients, but other alternatives could also be considered. For obtaining the relevance value with respect to a framework we have made use of a large recipe databases and we counted the number of recipes containing both the fruit and the term associated to the framework. Although the combination of fruits and dark chocolate could have nothing to do with the combination of fruits and rice, for instance, according to our assumption, given a fruit that has high value of a0 and has similar relevance vector 102 than another unknown fruit, this unknown fruit could be considered as a good option for extending the search. 4.1 Data collection In order to validate our method, we used the data provided by the chocolate chef Oriol Balaguer who assessed, according to his expertise, the combinations of 28 different fruits respect to their suitability to combine with dark chocolate [10]. In addition we have considered 14 frameworks aside from the main framework (dark chocolate). All considered frameworks consisted in ingredients used in cooking, but not necessarily in pastry making. In this implementation of the CSS, we are not focusing on the frameworks selection problem. Instead, we think that the ad-hoc selection for this example is enough for illustrating how the formulation presented can be implemented and we leave framework selection as a near future work. In order to obtain the relevance vector for each fruit we used the online database of recipes www.allrecipes.com. Table 1 depicts the list of the 28 fruits and 14 frameworks. The last column of this table shows the qualitative assessment provided by the expert following the labels in table 2. Values of table 1 are obtained by searching both terms simultaneously (fruit and framework). This value represents the number of recipes of the database containing both terms. We can think that this list of 28 fruits constitutes the conceptual space and the CSS can learn the relation between the relevance vector of these fruits with respect to the 14 frameworks and the assessment provided by the expert. Once this relation is captured the CSS can obtain the relevance vector of other fruits respect to this set of frameworks. It calculates the predicted value a0 for these new fruits and proposed those which have high predicted a0. Table 2. Labels and linguistic meaning in the fruit assessment by the expert. Labels 1 2 3 4 5 Linguistic labels It does not combine at all It does not combine well Combines well Combines very well It is an excellent combination 4.2 CSS training and results Our proposal is based on the existing relation between the appropriateness of a concept with respect to a framework and the relevance vector of this concept with respect to a set of other frameworks. To validate this, we used data from Table 1 for obtaining this relation and assessing its significance. This validation is performed twice by using, on the one hand, the complete range of expert’s valuation shown in Table 2 and, on the other hand, using just a binary valuation (suitable or not suitable) that simplifies expert’s assessment. We used a multiclass and a two-class support vector machines (SVM) and we validated it by means of a leave one out cross-validation process. If the SVM can correctly estimate the appropriateness of a fruit from the relevance vector, it can be used to propose new fruits with high predicted appropriateness. Table 1. List of the some fruits assessed by the expert (last column) and the list of some frameworks considered in this example. rice chicken vinegar sugar pie caramel bread app 331 494 606 2265 586 152 525 1 Apple 1 18 29 49 185 38 17 38 Pear 2 0 0 0 7 0 0 0 Quince 4 53 80 51 250 30 6 51 Apricot 3 26 44 49 374 150 3 53 Peach 5 55 119 91 142 18 2 89 Plum 4 0 4 0 0 0 Boysenberry 0 0 4 15 156 72 5 10 Blackberry 4 6 95 794 219 8 116 4 Strawberry 25 38 5 0 0 0 0 0 0 0 Bilberry Parameters of the SVM were tuned by optimizing the geometric mean of sensitivity and specificity because data are imbalanced. In the first case, we employed a multiclass SVM (5 classes) with a Gaussian kernel. The best parameters obtained were C=1000 (regularization cost) and γ= 10000 (Gaussian kernel parameter). Software R and LibSVM library were used to train the datasets and predict accuracy of classifying. The total accuracy obtained is 42.86%. This value means that 42.86% of the times, the predicted value match to the expert assessment. Taking into account that there are 5 classes and the expected accuracy in the case of random values is 100/5=20%, the accuracy value obtained reaffirms our hypothesis. In the second case, pattern labels are changed in order to maximize CSS utility. Instead of labels showed in Table 1, a binary classification is employed in which the first class contains those combinations that are suitable to the expert and the second class those which are not. Patterns corresponding to values 3 and less are considered to the first class and the rest of patterns are considered to belong to the second class. In this case, the best parameters obtained by the tuning process were C=100000 and γ= 0.1. The total accuracy obtained is 85%. Conclusion and Future work In this paper we proposed a new formalization of the mechanism of creativity based on the Boden notions of conceptual space and transformational creativity through a search beyond the boundaries of this conceptual space. This study redefines the formal mechanisms of exploratory and transformational creativity introducing the concepts of framework and relevance of a concept with respect to a framework. The formalization presented has been implemented in a real example conducted with a Spanish chocolate chef. 103 The obtained CSS was able to propose new unknown fruits that are predicted to combine well with dark chocolate. The validation of the method has been performed using a SVM. The obtained results allow us to conclude that the assumptions on which the method is based are satisfied in this example. It is important to remark that in this implementation we are not focusing on the frameworks selection problem. This is an important point to study in future work. Also, including both complete and incomplete concepts to the formalization presented will be an interesting topic for research. Acknowledgments This work is supported by the Spanish project SENSORIAL (TIN2010-20966-C02-02) Spanish Ministry of Education and Science. References [1] C.J. Thornton, How thinking inside the box can become thinking outside the box. In Proceedings of the 4th international Joint Workshop on Computational Creativity, (2007). [2] B. Shneiderman, Creating Creativity: User Interfaces for Supporting Innovation, ACM Transactions on Computer-Human Interaction 7,1 (2000), 114-138. [3] M.A. Boden, The Creative Mind: Myths and Mechanism. Weidenfiel and Nicholson, London, (1990). [4] M.A. Boden, What is creativity? In M.A.Boden, editor, Dimensions of Creativity. MIT Press (1996), 75-118. [5] G. Wiggins, A preliminary framework for description, analysis and comparison of creative systems. Knowledge-Based Systems 19 (2006), 449-458. [6] G. Ritchie, Some empirical criteria for attributing creativity to a computer program. Minds and Machines 17 (1) (2007), 67-69 (2007). [7] G. Ritchie, A closer look at creativity as search, In Proccedings of the 3rd International Conference on Computational Creativity (2012). [8] J. Charnley, A. Pease and S. Colton. On the Notion of Framing in Computational Creativity, In Proccedings of the 3rd International Conference on Computational Creativity (2012). [9] R. Manurung, G. Ritchie and H. Thompson. Using a genetic algorithms to create meaningful poetic text. Journal of Experimental & Theoretical Artificial Intelligence 24(1), (2012), 43-64. [10] N. Agell, G. Sánchez, M. Sánchez, F. Ruiz, Group decision-making system based on a qualitative location function. An application to chocolates design, In Proccedings of the 27th International Workshop on Qualitative Reasoning (2013). XVI Jornadas de ARCA 104 105 Equilibrio del Robot AIBO usando DMPs∗ Lluı́s Salord, Cecilio Angulo, Manel Velasco Universitat Politècnica de Catalunya · UPC BarcelonaTech Pau Gargallo 5. ESAII – Departament d’Automàtica, Barcelona, Spain 08028 l.salord.quetglas@gmail.com, {cecilio.angulo, manel.velasco}@upc.edu Abstract El trabajo presentado se enmarca en una iniciativa global que tiene como objeto la recuperación de la plataforma robótica AIBO de Sony. Para demostrar las prestaciones de la arquitectura propuesta y la viabilidad del robot AIBO como plataforma robótica útil, se han escogido algoritmos de aprendizaje por refuerzo muy novedosos como implementación en la tarea de mantener el equilibrio ante movimientos indeseados en la base de apoyo del robot. El robot AIBO puede ser controlado de forma permanente con un tiempo de respuesta adecuado para la tarea. 1. Introducción Este trabajo forma parte de una iniciativa por fomentar la reutilización del robot AIBO de Sony. En esta dirección, la implementación de la tarea de mantener el equilibrio por parte de un robot cuadrúpedo, como es el caso del robot AIBO, serı́a factible a través de un gran número de algoritmos diferentes. Sin embargo, con objeto de demostrar la viabilidad del uso de robots AIBO en la robótica móvil actual, pese a la discontinuidad en su fabricación y servicio, se han escogido algoritmos, medios de comunicación y marcos de programación novedosos y del todo actuales. Ası́, en los centros de investigación robótica de mayor nivel, como es el caso de Boston Dynamics, se está trabajando de un tiempo a esta parte con algoritmos DMPs (Dynamic Movement Primitives) [Schaal, 2006] como forma de creación de trayectorias en los robots móviles cuadrúpedos más avanzados [Raibert, 2008]. Se trata de algoritmos tales que, dada una demostración inicial de la dinámica aproximada del movimiento a realizar, adaptan la trayectoria original a la situación actual, generalmente cambiante, ya sea debido a una modificación en el punto inicial de movimiento, en el objetivo de movimiento o en obstáculos en el recorrido del movimiento. Una de las grandes ventajas en el uso de DMPs es la posibilidad de realizar el control de un robot sin tener información del modelo mecánico que lo representa. ∗ Este trabajo ha sido financiado parcialmente por los proyectos de investigación PATRICIA (TIN2012-38416-C03-01) y EVENTS (DPI2010-18601), ambos financiados por el Ministerio de Economı́a y Competitividad del Gobierno de España. Además, se ha decidido utilizar el entorno de trabajo de ROS (Robotic Operative System), que permite la creación de un enlace de comunicación entre el ordenador y el robot AIBO1 . Se trata de un entorno de programación open source que se ha convertido en un estándar de facto en el mundo de la robótica móvil y se abre camino en los dominios de la robótica industrial. Al robot AIBO se le ha dotado de un sensor triaxial de accelerometrı́a, ası́ como un giroscopio de tres ejes, con el objetivo de disponer de información del movimiento en el centro de gravedad del robot, el cual deseamos mantener estable. Con ayuda de las DMPs, junto con el algoritmo de aprendizaje por refuerzo PI2 (Path Integral Policy Improvement) [Buchli et al., 2011] se analizará la información recogida por los sensores inerciales, en especial el ángulo de inclinación del centro de gravedad del robot y se intentará su control para que se acerque lo más posible a la horizontal. Para la experimentación se ha utilizado una plataforma móvil de dos ejes controlada por un procesador Arduino, sobre la que se sitúa el robot AIBO. Al inclinarse la plataforma, el robot adapta la posición de sus motores para recuperar la posición de equilibrio. A la hora de implementar, tanto las DMPs como el algoritme PI2 , se ha utilizado el código sobre ROS del CLMC Lab, en la University of Southern California2 . Se trata de un código más complejo que el necesario para nuestra aplicación pues está pensado para el robot PR2 de Willow Garage [Bohren et al., 2011]. Por ello, se ha adaptado al robot AIBO eliminando aquellos packages innecesarios y modificando otros. Además, se ha creado un ejecutable que permite el funcionamiento del robot con el conjunto de algoritmos implicados. 2. Estado del arte En la investigación sobre estabilidad de robots, tanto bı́pedos como cuadrúpedos, existen mltitud de trabajos. A continuación se exponen un conjunto de antecedentes, organizados 1 El package que permite esta coumincación ha sido diseñado inicialmente por el Dr. Ricado A. Téllez y posteriormente desarrollado en el Departamento de Automática de la Universitat Politècnica de Catalunya. 2 La página principal es http://www-clmc.usc.edu/ y el github es https://github.com/usc-clmc/usc-clmc-ros-pkg 106 en diferentes ámbitos, que son de interés para el experimentación llevada a cabo. 2.1. Robot AIBO El robot AIBO (Artificial Intelligence RoBOt) es un robot cuadrúpedo diseñado y fabricado por Sony Corporation, con apariencia canina. El ERS-7 es el modelo elegido para el presente trabajo. Este robot se considera autónomo en tanto que es capaz de extraer información de su entorno, funcionar por un largo perı́odo sin intervención humana, mover alguna de sus partes en un entorno de trabajo y, finalmente, evitar situaciones de peligro para las personas, los bienes y él mismo. Los diseñadores del robot AIBO persiguieron el objetivo de conseguir que su comportamiento fuera lo más realista posbile. Para ello, avanzaron en diferentes caminos: Estı́mulos • Comportamientos reflexivos y deliberados según una escala de tiempo. • Comportamientos por órdenes externas y por deseos internos (instintos y emociones). • Motivaciones independientes generadas por partes del robot como cuello, cola y patas. Instintos y emociones con los que poder cambiar el comportamiento ante otros estı́mulos externos. Aprendizaje y evolución. Las caracterı́sticas hardware del robot pueden consultarse en [Anshar and Williams, 2007]. Las articulaciones, controladas mediante algoritmos PID, poseen rangos de trabajo diferentes según sea su función y las propias limitaciones fı́sicas. En cuanto al software, el robot AIBO funciona a partir de un sistema operativo denominado Aperios, desarrollado por Sony. Luego podrı́a considerarse que posee varias capas de programario que permmiten el control del robot. Uno de los mayores problemas con el robot AIBO, y uno de los motivos del cese de su fabricación, es la dificultad para descentralizar los cálculos en un procesador externo. 2.2. Entorno de trabajo ROS Robot Operating System [Robot Operating System, 2014] es un entorno de trabajo open-source y flexible para la programación de robots. Las bases de este proyecto se iniciaron con unas investigaciones en Stanford en 2007, cuando se llevaron a cabo diferentes prototipos de entornos de trabajo para programario de robots, como por ejemplo STanford Artificial Intelligence Robot (STAIR) o Personal Robotics (PR). Más adelante, Willow Garage, una empresa inversora en robótica, proveyó de recursos para mejorar el concepto y permitir crear implementaciones correctamente testadas. Finalmente, con la colaboración desinteresada de numerosos investigadores, se ha mejorado el núcleo de ROS y las herramientas principales asociadas, convirtiéndose en una de las plataformas con más diversidad de algoritmos y más utilizada en las investigaciones de robótica. Objetivos de ROS El principal objetivo de ROS es poder reutilizar el código de desarrollo y de investigación en robótica. Ello se consigue mediante una estructura de procesos distribuidos. Otras caracterı́sticas propias son además: Descentralización. ROS está estructurado de forma que los processos están distribuidos, con la posibilidad de hallarse en hosts diferentes, pero funcionando conjuntamente. Plurilingüismo. ROS se ha diseñado para ser neutral en cuanto al lenguaje de programación. Actualmente admite cuatro lenguajes de programación: C++, Python, Octave y LISP, habiendo ya otros en desarrollo. Basado en herramientas. Se ha optado por diseñar un núcleo simple, sobre el que se utilizan multitud de herramientas para construir i hacer funcionar los diversos componentse de ROS. Capa intermedia fina. En ROS se induce la independencia de los algoritmos con su núcleo creándolos en librerı́as separadas. Se facilita la extracción de código y su reuso. Gratuito y open-source. El código nativo de ROS está disponible públicamente. Este hecho permite facilitar el testeo y corrección de software en todos los niveles. Herramientas de ROS ROS se basa, en gran parte, en la multitud de herramientas disponibles para tareas como, por ejemplo, navegar por el árbol de código fuente, obtener y establecer los parámetros de configuración, visualizar las conexiones entre procesos, medir el uso de ancho de banda, exponer de forma gráfica los datos de los mensajes. A continuación se listan algunas de las más utilizadas: rviz Entorno de visualización 3D que permite combinar los datos de los sensores del robot y el modelo. rosbag, rxbag y rxplot Permiten almacenar y reproducir los datos de un mensaje o un tópico, ası́ como visualizarlos en forma gráfica. rxgraph Expone visualmente cómo funcionan los processos de ROS y sus conexiones. 2.3. DMP (Dynamic Movement Primitive) Las DMPs representan un movimiento a partir de un conjunto de ecuaciones diferenciales, de forma que la dinámica del propio sistema sea capaz de corregir las perturbaciones que puedan aparecer. Además, la representación del movimiento permite modificar de forma sencilla el objetivo (o goal), ası́ como la velocidad del movimiento. Esta robustez y adaptabilidad permiten mejorar los algoritmos utilizados en aprendizaje por demostración (learning from demostration o LfD). El LfD podrı́a estructurarse en tres grandes grupos, en función de cómo se adquieren los datos utilizados en la demostración: Imitación. El ejemplo se realiza sobre una plataforma que no es el robot, por lo que la información extraı́da debe 107 ser modificada e interpretada para adecuarse a las articulaciones del robot. Demostración. La ejecución se realiza sobre el mismo robot. Un método podrı́a ser la tele operación del robot por parte del demostrador. Trayectoria programada. La demostración se provee en forma de una serie de coordenadas de una trayectoria. El sistema dinámico se puede interpretar como un sistema proporcional - derivativo (PD), con partámetros K, para el coeficiente proporcional, y D, para el derivativo. Las variables x y v corresponden a la posición y a la velocidad, la constante τ es el perı́odo de muestreo del movimiento y g es el parámetro de atracción del sistema. τ v̇ = K(g − x) − Dv + (g − x0 )f (s) (1) τ ẋ = v (2) El sistema dinámico unidimensional (1)-(2) es estable, con punto final la posición g, para cualquier valor que tome f (s), una función no lineal que no depende del tiempo, sino de una variable de fase s ∈ [0, 1] que representa la duración del movimiento en tanto por uno. P i wi ψi (s)s f (s) = P (3) i ψi (s) τ ṡ = −αs (4) La variable canónica posee una dinámica de desplazamiento definida por τ y por α, una constante pre-definida, como se aprecia en la ecuación diferencial (4). Además, la función f (s) puede aprender con objeto de realizar movimientos complejos de forma arbitraria, de acuerdo al ajuste de los pesos wi . Las ψi (s) son funciones base, en general gaussianas ψi (s) = exp(−hi (s − ci )2 ) que permitirán modificar la trayectoria inicial definida por los parámetros K y D (Figura 1), para ası́ poderse adaptar a nuevas situaciones, como evadir obstáculos, cambio de punto final, etc. Figura 2: Efecto de los pesos wi (representados por θ) y del objetivo (goal) en la trayectoria. la posibilidad de comunicación del robot AIBO a través de ROS. Por ello, siguiendo una iniciativa del Departament d’Automàtica de la Universitat Politècnica de Catalunya, a través de diversos trabajos académicos, se ha promovido la realización de un package para permitir que el robot AIBO pueda trabajar con ROS. Gracias a ello, ahora es posible la transferencia de video, sonido y del control de las articulaciones del robot. Actualmente la conexión con AIBO comporta la creación de seis topics donde éste publica y dos en los que está como subscriptor: Publica en los topics: /aibo/infrared Información de cada sensor de infra rojos (distanceChest, distanceNear, distanceFar), con la distancia calculada a un eventual obstáculo. /aibo/image Publica las imágenes de la cámara frontal del AIBO, en formato sensor msgs::Image. /aibo/joints Información sobre las posiciones de cada una de las articulaciones en unidades de grados. /aibo/accel Información del accelerómetre incorporado en el AIBO en unidades de m/s2 . /aibo/paws Los sensores de contacto de las patas son binarios. /aibo/touch Para los sensores de presión. Subscriptor de los topics: Figura 1: Representación de la DMP con función no lineal y sin ella. Realmente, en las DMPs, lo que determina la trayectoria es la parte no lineal, y esta se ve controlada por los pesos wi (ver Figura 2). 3. 3.1. Estudios iniciales Comunicación mediante ROS El entorno de trabajo ROS es una herramienta que está al orden del dı́a en robótica. Hasta el momento, no existı́a /aibo/sound Donde se publican los sonidos a ser reproducidos per AIBO. /aibo/subJoints Donde se informa a AIBO de la posición deseada para las articulaciones. El mensaje es de tipo aibo server::Joints3 con las unidades en grados. Entre AIBO y ROS El funcionamiento actual de la comunicación entre AIBO y ROS se basa en URBI. De igual forma, las acciones de control publicadas en ROS se interpretan y se transforman en comandos de URBI. Estas dos tareas se reproducen en paralelo a través de dos clientes de URBI por separado: (1) cliente publicador, que es el que introduce los datos de AIBO en los 3 Este tipo de mensaje está incluı́do en el package aibo server. 108 Figura 3: Comunicació entre l’AIBO, URBI i ROS topics; (2) client subscriptor, con la función de recoger lo que se ha publicado en el topic de comandos. Publicación en ROS de información de AIBO a través de URBI 1. URBI solicita la informació a AIBO, en forma de callbacks. 2. URBI, por otra parte, publica de forma continuada en los topics, donde hay subscriptores, el mensaje relacionado con el topic. 3. En el momento en que la información de AIBO es recibida por URBI, se modifica el mensaje que este publica en ROS. Control de las articulaciones a partir de un topic 1. El algoritmo de control crea un topic denominado aibo server/aibo/subJoints, y cada vez que se ha de modificar la posición de las articulaciones, publica un message4 . 2. Al aparecer un nuevo message en el topic, URBI toma el message y lo transforma para enviarlo como comando a las articulaciones de AIBO. 3.2. Entre el algoritmo de control y ROS Con “algoritmo de control” nos referimos al código que procesa los cálculos que se requieren para llevar a cabo todo el proceso de estabilización. Este código se ejecuta en un ordenador o servidor, donde está instalado todo el software requerido. El algoritmo de control sólo depende de ROS para recoger la información del conjunto accelerómetro-giroscopio y para ejecutar el movimiento de las articulaciones de AIBO. Por tanto, el node de ejecución es tanto subscriptor del topic del sensor, como, a la vez, es publicador del topic de los comandos para las articulaciones. 3.3. Entre el Arduino y ROS El conjunt accelerómetro-giroscopio está conectado al Arduino, por lo que ha de ser éste quien cree el topic donde se publica la información que ha de transmitir por ROS al algoritmo de control. Para ello se utilizará el package rosserial. 4. Control de estabilidad Intentar estudiar la estabilidad dinámica del robot [Yazdani et al., 2012] implicarı́a un grado de complejidad demasiado elevado, por lo que el trabajo se ha limitado a la estabilidad estática [Hugel and Blazevic, 1999], es decir mantener el centro de gravedad CdG del robot dentro del polı́gono de estabilidad en todo momento. Se han planteado dos tipos de aproximaciones al problema. La primera consiste en intentar mantener el CdG siempre en 4 El message contiene un conjunto de floats que representan cada una de las articulaciones. el mismo punto. La plataforma introduce una perturbación al sistema, desplazando el robot, quien ha de interpretar el desplazamiento e intentar corregirlo. Este planteamiento, como se verá, supera el grado de precisión conseguido por los sensores, por lo que será desestimada. La otra posibilidad, más sencilla, consiste en mantener la horizontalidad del cuerpo de AIBO. Es decir, el robot ha de ser capaz de reaccionar ante movimientos de la plataforma base con el objetivo de mantenerse en horizontal. Esta es la aproximación que se tomará. Una forma de realizar el control de estabilidad podrı́a ser basándose en un modelo de AIBO. Además de beneficiarse de la cinemática inversa, un modelo permirı́a aplicar algoritmos de control de estabilidad de forma virtual, en un simulador. Sin embargo, no existe en la literatura un modelo del sistema ‘AIBO’ lo bastante preciso como para poder trabajar con su estabilidad Por ello, y con objeto de demostrar la viabilidad del entorno creado sobre un robot que ya no está en producción desde hace años, se ha determinado utilizar los algoritmos de DMPs, los cuales trabajan sin necesidad de conocer el modelo del sistema que están controlando y constituyen el estado del arte en aprendizaje robótico. La creación del algoritmo de control de estabilidad basado en DMPs re realizará a partir del package de Scott Niekum, que está diseñado sobre el algoritmo modificado de [Pastor et al., 2009]: 1. Dada una trayectoria, se calculan los pesos que la aproximan y se crea la DMP. 2. Proporcionadas las caracterı́sticas del movimiento deseado (posición y velocidad actual, objetivo final, tiempo. . . ), se realiza el cálculo de las acciones de control. 3. Para cada acción de control se comprueba si existe modificación del objetivo final o si se ha acabado de realizar el movimiento. En caso de cambiar de objetivo, se repite el paso anterior; en caso de haber finalizado, se para el robot y se procede a comprobar continuadamente si se genera un nuevo punto objetivo. 5. Implementación La fotografı́a de conjunto del sistema implementado es la que puede observarse a la Figura 4. Un requisito imprescindible para poder conseguir recuperar la estabilidad del robot es disponer de medidas de los movimientos del robot. Inicialmente se pensó en utilizar el sensor triaxial de accelerometrı́a que lleva incorporado el propio AIBO, y de esta forma poder estudiar su movimiento. Sin embargo, unas primeras comprobaciones ya demostraron que la medida del ángulo de inclinación extraı́da no era fiable ni lo bastante precisa para la tarea a desarrollar. 5.1. Sensores Por ello, se procedió a comprar un sensor externo triaxial de accelerometrı́a con un giroscopio de tres ejes. El accelerómetro es un MPU6050 y el giroscopio un GY-521. Se han escogido por estar diseñados para poder ser utilizados con Arduino. Además, existe mucha información sobre ellos, 109 Figura 4: Fotografı́a del conjunto de elementos. como librerı́as (i2cdevlib), aplicaciones realizadas, y es muy recomendable por su calidad-precio. El cálculo de la inclinación se realiza utilizando el giroscopio como medida y filtrando los datos con ayuda de las medidas del accelerómetro, ya sea como un filtro de Kalman o como un filtro complementario. Ambos filtros no difieren demasiado en los resultados aportados, el Kalman siendo algo más preciso, pero requiere de mayores recursos computacionales. Puesto que se cuenta con un Arduino Uno para realizar el procesado y la librerı́a de ROS ya ocupa prácticamente la mitad de la memoria del microcontrolador, se ha optado por el filtro complementario, θcompl = (1 − λ)(θcompl + wgiro dt) + λθaccel (5) sobre el que se han realizado algunas mejoras. Para trabajar con la horizontalidad del robot ya es suficiente con la medida de la inclinación. 5.2. Comunicaciones En el apartado 3.3 se explicó la forma de transmisión de la información desde Arduino a ROS. La comunicación entre el sensor y el microcontrolador se basará en el bus de comunicación I2 C, un bus bidireccional, pero que no permite enviar y recibir información de forma simultánea. La comunicació con AIBO desde el ordenador donde corre el algoritmo de control de estabilidad se realiza a través de un Access Point (AP). El tipo de cifrado de la contraseña debe ser WEP o sin contraseña. Para configurar la tarjeta de red de AIBO se ha de acceder al fichero de configuración de la tarjeta de memoria OPEN-R\SYSTEM\CONF\WLANDFLT.TXT. Una posible configuración es la que se expone a continuación, [Téllez, 2004] HOSTNAME=AIBO ETHER_IP=192.168.10.124 ETHER_NETMASK=255.255.255.0 IP_GATEWAY=192.168.10.1 ESSID=AIBONET WEPENABLE=1 WEPKEY=AIBO2 APMODE=2 # this mode indicates auto-mode CHANNEL=3 5.3. Procesos iniciales Para el buen funcionamiento de las DMPs es necesario iniciar una serie de procesos que permitan el intercambio de información y ası́ poner en funcionamiento el conjunto de sistemas. Primero se inicia la carga del programa de control del CdG en Arduino. En el GitHub github.com/lluissalord/TFG puede recuperarse un programa de Arduino (arduino/MPU6050 compl.ino) que debe ser instalado en la placa para poder transmitir 110 de forma correcta la información en el topic de ROS correspondiente (/pos). Parar poder realizar la carga del programa, se ha de tener conectado el Arduino con un cable USB al ordenador, se ha de abrir con el IDE de Arduino el fichero mencionado y realizar la opción Archivo->Subir. Una vez dispuesto el Arduino, viene la fase de ejecución por lı́nea de comandos, las cuales podrı́an integrarse en un fichero launch. Cada una de las acciones seguientes debe realizarse por separado en un terminal independiente, preferiblemente en este orden: $ roscore ejecuta el ROS Master. $ rosrun rosserial python serial node.py \dev\ttyACM0 activa la comunicación entre el Arduino y ROS. Podrı́a darse el caso que la entrada de datos no sea \dev\ttyACM0; para corroborarlo se ha de observar en el IDE de Arduino a qué puerto está conectado. $ rosrun aibo server aibo server 192.168.0.124 ejecución del programa que permite la comunicación AIBO-ROS. El número 192.168.0.124 es la IP del robot AIBO, la cual varı́a según la configuración que se haya seguido en la fase de set-up de la conexión inalámbrica. $ rosrun dmp execute dmp execute 0 inicia el algoritmo de control. El número final varı́a entre 1 y 0, según si se desea utilizar el algoritmo de aprendizaje PI2 o no, respectivamente. 5.4. Funcionamiento de DMPs con PI2 El funcionamiento con el uso del algoritmo PI2 varı́a significativamente respecto a las DMPs originales. El algoritmo PI2 ha de permitir un proceso de aprenendizaje iterativo hacia el objetivo fijado, sin cambiar las condiciones del entorno. Aunque el algoritmo ha sido generado, los resultados no fueron satisfactorios, por lo que se descartó su uso en este trabajo. 6. Resultados, conclusiones y trabajos futuros Puede considerarse que los resultados conseguidos son muy satisfactorios ya que se han cubierto los objetivos previstos. A nivel global, se ha podido realizar la optimización de la adaptabilidad del robot a un entorno accesible y desconocido. A nivel de objetivos especı́ficos, en cuanto a accesibilidad del trabajo para futuras extensiones, en tanto que englobado en la iniciativa de recuperación del robot AIBO de Sony, se ha actualizado continuadamente una plataforma de desarrollo colectivo de software GitHub. Toda la faena realizada puede consultarse y descargarse desde https://github.com/lluissalord/TFG/. En referencia a la implementación del entorno de comunicación, se ha mejorado el package inicial. Se ha podido también demostrar cómo esta plataforma permite la implementación de algoritmos de control que son estado del arte a nivel de investigación. Por otra parte, se ha realizado un estudio de los moviments del robot a partir de un sensor externo triaxial de accelerometrı́a y un giroscopio de tres ejes. Las inclinaciones se han registrado perfectamente, con una precisión superior a la requerida para los cálculos. Sin embargo, la información de los desplazamientos calculada a partir del accelerómetro no es fiable. Se pueden, además, plantear varias lı́neas de trabajo: (1) mejoras en la comunicación AIBO-ROS, la cual provoca actualmente bloqueos temporales; (2) implementación del algoritmo PI2 de forma más integrada; (3) plataforma automatizada para facilitar el aprenendizaje del algoritme anterior manteniendo una inclinación constante; (4) conseguir extraer el desplazamiento del CdG gracies al uso de algoritmos de visión; (5) mejorar el modelo del robot AIBO. Referencias [Anshar and Williams, 2007] Muh. Anshar and Mary-Anne Williams. Extended Evolutionary Fast Learn-to-Walk Approach for Four-Legged Robots. Journal of Bionic Engineering, 4(4):255–263, December 2007. [Bohren et al., 2011] Jonathan Bohren, Radu Bogdan Rusu, Edward Gil Jones, Eitan Marder-Eppstein, Caroline Pantofaru, Melonee Wise, Lorenz Mösenlechner, Wim Meeussen, and Stefan Holzer. Towards autonomous robotic butlers: Lessons learned with the PR2. In ICRA, pages 5568–5575. IEEE, 2011. [Buchli et al., 2011] Jonas Buchli, Freek Stulp, Evangelos Theodorou, and Stefan Schaal. Learning variable impedance control. International Journal of Robotics Research, 2011. [Hugel and Blazevic, 1999] Vincent Hugel and Pierre Blazevic. Towards efficient implementation of quadruped gaits with duty factor of 0.75. Robotics and Automation, 1999. . . . , (May), 1999. [Pastor et al., 2009] Peter Pastor, Heiko Hoffmann, Tamim Asfour, and Stefan Schaal. Learning and generalization of motor skills by learning from demonstration. 2009 IEEE International Conference on Robotics and Automation, pages 763–768, May 2009. [Raibert, 2008] Marc Raibert. BigDog, the Rough-Terrain Quadruped Robot. In Myung J. Chung, editor, Proceedings of the 17th IFAC World Congress, volume 17, 2008. [Robot Operating System, 2014] Robot Operating System. ROS.org, 2014. Fecha de consulta: 22/02/2014. [Schaal, 2006] Stefan Schaal. Dynamic Movement Primitives -A Framework for Motor Control in Humans and Humanoid Robotics. In Hiroshi Kimura, Kazuo Tsuchiya, Akio Ishiguro, and Hartmut Witte, editors, Adaptive Motion of Animals and Machines, pages 261–280. Springer Tokyo, 2006. [Téllez, 2004] Ricardo A. Téllez. Aibo Quickstart Manual. Technical report, Grup de Recerca en Enginyeria del Coneixement (GREC), 2004. [Yazdani et al., 2012] Reza Yazdani, Vahid Johari Majd, and Reza Oftadeh. Dynamically stable trajectory planning for a quadruped robot. 20th Iranian Conference on Electrical Engineering (ICEE2012), pages 845–850, May 2012. 111 Brain-physical activity mapping using low cost EEG sensors L.M. Soria Morillo, J.A. Álvarez García, I. Cuadrado-Cordero, J.A. Ortega Ramírez University of Seville Computer Languages and Systems Dept. Avenida Reina Mercedes S/N, 41012 {lsoria, jaalvarez, icuadrado, jortega}@us.es Abstract This paper presents a prototype brain interface to recognize a set of activity contexts based on EEG signals. Electrical impulses are captured using the Emotiv EPOC and MindWave devices. After signal processing for noise reduction caused by movement, the signal from the EEG is classified in order to find structural patterns related to the physical activity performed by the user. 1 Introducción El uso de la electroencefalografía ha sido usado durante la última década para el estudio de la actividad cerebral. En la mayoría de los estudios, se pretende determinar los efectos de ciertos pensamientos sobre la corteza cerebral. De este modo se establece una relación causa-efecto que permite estudiar los diferentes cortex cerebrales. La combinación entre la medicina y los sistemas de aprendizaje han hecho que se hayan podido alcanzar hitos que eran impensables hace años. Desde el aislamiento de la actividad cerebral en función de los pensamientos, hasta el manejo de dispositivos electrónicos a través de una interfaz cerebral. Esto ha dado lugar a una nueva era en el ámbito de la interacción persona-computador, caracterizada por la ausencia de órdenes directas o acciones por parte del usuario, para dar paso al manejo mediante pensamientos directos. En el afán de aislar las acciones, los investigadores han determinado asociaciones que permiten determinar si la música escuchada es o no del gusto del usuario, o si un anuncio de televisión capta o no la atención del individuo. Esto evidentemente está siendo explotado por la industria publicitaria. Entre estas acciones, en este estudio prestaremos especial atención a las interacciones físicas y los efectos que estas provocan en el estado mental del usuario. ¿Cómo afecta al cortex cerebral una sesión de cocina? ¿Hay efectos a nivel eléctrico cuando el usuario se encuentra leyendo correos electrónicos? El determinar estas asociaciones a alto nivel permitirá ir un paso más allá en el reconocimiento de actividades. Hasta el momento, la mayoría de trabajos en el ámbito del reconocimiento físico de actividades han estado basados en el uso de sensores inerciales o a través de visión por computador. En el primer caso, existen limitaciones que no pueden ser solventadas por este tipo de sensores, sobre todo en el ámbito de reconocimiento de actividades de alto nivel. Por otro lado, mediante la visión por computador la intimidad del usuario queda en entredicho y, aun aceptando esta limitación, el ámbito de aplicación está limitado a un entorno controlado de videovigilancia. El estudio de las señales corticales a alto nivel puede ser transcendente para establecer relaciones directas y automáticas entre acciones físicas y reflejos mentales que harán que el entorno del usuario se adapte, no sólo a la actividad realizada, sino al efecto que tiene dicha actividad a nivel subjetivo. ¿Podría imaginar que un sistema de reconocimiento de actividades fuera capaz de determinar que está cocinado? ¿Y si además reconociera que no le gusta el olor del menú y decidiera ofrecerle la oportunidad de cambiar de plato? 2 Adquisición de datos EEG El dispositivo Emotiv ha sido elegido por diversas razones para la adquisición de las señales de actividad cerebral. En primer lugar debido a su precio que, en comparación con otros sistemas de electroencefalografía profesionales es mucho más reducido. A pesar de su precio, el hecho de poseer diferentes sensores hace que las capacidades de procesamiento para la búsqueda de correlaciones entre actividad física y actividad cerebral sea más precisa. 112 Por otro lado, la versatilidad y la facilidad de instalación son puntos a favor que han favorecido la toma de esta decisión. En la siguiente imagen se puede observar la diferencia entre un sistema EEG profesional (izquierda) y el Emotiv EPOC (derecha). Sin embargo, la reducción de canales y la poca sujeción presente en los sensores del Emotiv EPOC hacen que la señal presente un elevado nivel de ruido. Recientes estudios han demostrado que el cortex motor primario se encuentra dividido en conjuntos de neuronas agrupadas en función de la actividad motora encargada de coordinar. En la siguiente figura se puede ver una ilustración de esta agrupación. 3 Correlación Actividad Física-Cerebral En la siguiente figura se muestra la relación entre el movimiento de la mano izquierda y la falta de movimiento de la misma. En el dominio frecuencial se puede apreciar una variación en las frecuencias correspondientes entre 10 y 20 Hz respecto a la actividad basal. Debe notarse que la mayor fluctuación en la actividad eléctrica se produce en el cortex motor primario, asociado al sensor F3 en el mapa del EPOC. Esta agrupación permite determinar con relativa precisión el movimiento realizado por el individuo de manera externa. Sin embargo, la precisión de los aparatos de medición, entre ellos el Emotiv EPOC empleado en este estudio, no es suficiente para medir las diferencias de potencial entre las zonas corticales. Durante este estudio se pretende establecer una relación en el ámbito frecuencial que permita clasificar grupos de movimiento en función a sus estructuras generales y su cadencia de repetición. Andar, correr, estar inmóvil o estar sentado son actividades de alto nivel que sistemas de basados en acelerometría permiten reconocer. Sin embargo, el emplazamiento de los sensores juego un paper crucial para su reconocimiento. Pero obviando este inconveniente, son sistemas poco intrusivos que cumplen adecuadamente su cometido. En cambio, si se pretende dotar al sistema de reconocimiento de actividades físicas de un mayor nivel de granularidad, los sensores inerciales no son una buena alternativa para llevarlo a cabo. Actividades como cocinar, escuchar música o ver la televisión, difícilmente pueden ser diferenciadas de andar y estar sentado. 113 Gracias al empleo de señales de electroencefalografía esto se convierte en una realidad. El reconocimiento de este perfil de actividades física no sólo es evidente a nivel motor, sino a nivel emocional mediante variaciones en la actividad del lóbulo frontal. Desde el punto de vista de la función motora, en el siguiente mapa de actividad cerebral puede apreciarse como en torno a los 22Hz la actividad cerebral es evidentemente más alta cuando se produce un movimiento en la mano izquierda. Como puede verse en la siguiente figura, ciertas actividades físicas que no tendrían impacto a nivel inercial, como por ejemplo hablar con otra persona, pueden ser determinadas claramente mediante el uso de sensores electroencefalográficos. Concretamente, la actividad cerebral presente en una persona que ha estado hablando durante más de 20 minutos es claramente superior en el lóbulo parietal. 3 Trabajos futuros En el contexto de esta nueva línea de investigación, el principal objetivo es desarrollar un sistema de adquisición de datos procedentes el Emotiv EPOC empleando OpenVibe y Matlab como software matemático. Este sistema permitirá obtener datos procedentes del dispositivo y estudiar la actividad cerebral en el ámbito del reconocimiento de actividades a alto nivel. En este sentido, existen multitud de trabajos relacionados con el estudio del movimiento ocular o articular de manera aislada. Sin embargo, en esta línea se pretende evitar el aislamiento de los movimientos y trabajar con ellos, junto con actividad cerebral sensorial, para permitir inferir conjuntos de actividades de alto nivel. Por último, es imprescindible identificar características en la señal cerebral para llevar a cabo la clasificación de las actividades físicas. En este sentido, trabajar en el dominio frecuencial favorece la extracción de características y la discretización de las mismas. El trabajo en el ámbito discreto de la actividad cerebral será uno de los principales objetivos de este trabajo. References Vallabhaneni, A., Wang, T., & He, B. (2005). Brain— Computer Interface. InNeural Engineering (pp. 85121). Springer US. Wolpaw, J. R., Birbaumer, N., Heetderks, W. J., McFarland, D. J., Peckham, P. H., Schalk, G., ... & Vaughan, T. M. (2000). Brain-computer interface technology: a review of the first international meeting. IEEE transactions on rehabilitation engineering, 8(2), 164-173. Hill, N. J., Ricci, E., Haider, S., McCane, L. M., Heckman, S., Wolpaw, J. R., & Vaughan, T. M. (2014). A practical, intuitive brain–computer interface for communicating ‘yes’ or ‘no’by listening. Journal of neural engineering, 11(3), 035003. Vala, M. N., & Trivedi, M. K. (2014). Brain Computer Interface: Data Acquisition using non-invasive Emotiv Epoc Neuroheadset. Lee, W. T., Nisar, H., Malik, A. S., & Yeap, K. H. (2013, June). A brain computer interface for smart home control. In Consumer Electronics (ISCE), 2013 IEEE 17th International Symposium on (pp. 35-36). IEEE. Muñoz, J., Muñoz, C., & Henao, O. (2014). Diseño de una estación de trabajo para personas con discapacidad en miembros superiores usando una interfaz cerebro computador. Garcia–Molina, G., Tsoneva, T., & Nijholt, A. (2013). Emotional brain–computer interfaces. International Journal of Autonomous and Adaptive Communications Systems, 6(1), 9-25. da Silva, N. A., Maximiano, R., & Ferreira, H. A. (2014, January). Hybrid Brain Computer Interface Based on Gaming Technology: An Approach with Emotiv EEG and Microsoft Kinect. In XIII Mediterranean Conference on Medical and Biological Engineering and Computing 2013 (pp. 1655-1658). Springer International Publishing. Li, M., Zhang, Y., Zhang, H., & Hu, H. S. (2013). An EEG Based Control System for Intelligent Wheelchair. Applied Mechanics and Materials, 300, 15401545. Doud, A. J. (2013). Motor imagery retraining after stroke with virtual hands: An immersive sensorimotor rhythm-based brain-computer interface (Doctoral dissertation, UNIVERSITY OF MINNESOTA). 114 Zainuddin, B. S., Hussain, Z., & Isa, I. S. (2014, March). Alpha and beta EEG brainwave signal classification technique: A conceptual study. In Signal Processing & its Applications (CSPA), 2014 IEEE 10th International Colloquium on (pp. 233-237). IEEE. 115 Mejorando la interoperabilidad en la Smart City: generación automática de servicios web José I. Sánchez-Venzalá Departamento de Lenguajes y Sistemas Informáticos Universidad de Sevilla jisanchez@us.es A. Fernández-Montes Departamento de Lenguajes y Sistemas Informáticos Universidad de Sevilla afdez@us.es Resumen El concepto de Smart Cities está experimentando actualmente un tremendo auge. Mundialmente existen multitud de iniciativas para implementar el paradigma de ciudad inteligente, que busca mejorar la vida de las personas que las habitan mediante herramientas TIC. FI-WARE1 es el proyecto de referencia para Future Internet en el que se basan numerosas iniciativas de Smart Cities. Uno de los problemas comunes en el desarrollo de las Smart Cities es la publicación de los datos que en ellas se generan, con objeto de ser explotados por las distintas aplicaciones siguiendo las líneas que los gobiernos están impulsando, paradigma llamado OpenData. Este artículo busca proporcionar una forma de automatizar mediante tecnología de servicios web el proceso de publicación y acceso a los datos recogidos por las diferentes fuentes para su explotación. cotidiana y el Internet of Things está comenzando a ser una realidad. En este contexto nace el concepto de Smart City, que persigue mediante TIC mejorar la calidad de vida de las personas optimizando la interacción entre éstas y el entorno urbano. Existen multitud de definiciones del concepto Smart City en la bibliografía: • • • • 1. Introducción La tasa de crecimiento de la población mundial y su concentración en el área urbana de las ciudades, impulsa a los gobiernos a buscar soluciones y formas de optimizar la vida en las mismas. Por otro lado, la evolución de la tecnología está incrementando las capacidades de procesamiento, de almacenamiento y de comunicación de los dispositivos, y mejorando la forma en que computadores y personas se relacionan. Los dispositivos computacionales son ya parte de nuestra vida 1 http://www.fi-ware.org J.A. Ortega Departamento de Lenguajes y Sistemas Informáticos Universidad de Sevilla jortega@us.es El uso de tecnologías computacionales inteligentes para hacer los componentes críticos de la infraestructura y servicios de la ciudad más inteligentes, interconectados y eficientes. Una ciudad que trata de hacerse más eficiente, sostenible, equitativa y habitable. Una ciudad que monitoriza e integra el estado de sus infraestructuras críticas, que optimiza sus recursos, que prevé sus actividades de mantenimiento y que monitoriza los aspectos de seguridad al tiempo que maximiza los servicios para la ciudadanía. Una ciudad repleta de dispositivos, interconectada e inteligente. Los dispositivos permiten capturar e integrar los datos de la vida real mediante sensores y otros dispositivos. Interconectada se refiere a la integración de estos datos en plataformas de computación y la comunicación de ésta mediante los servicios disponibles por la ciudad. Inteligente se refiere a la inclusión de análisis complejo, modelado, optimización y visualización de procesos para optimizar decisiones operacionales. A partir de estas definiciones, se pueden obtener los conceptos más importes relacionados con las Smart Cities: infraestructura, comunicaciones, computación, información, tecnología, servicios, eficiencia, ciudadanos, sostenibilidad, habitabilidad, calidad de vida, integración, recursos, optimización y accesibilidad. 116 Las Smart Cities se han identificado como uno de los temas centrales del programa europeo de investigación por su potencial y su importante contribución a la calidad de vida de los ciudadanos en los próximos años. La evolución del paradigma creará también un negocio emergente alrededor del mismo y producirá un importante impulso en la economía. De acuerdo con Gartner, en 2012 había 143 proyectos en curso de Smart Cities alrededor del mundo. El proyecto europeo de Smart Cities, identifica seis dimesiones para medir la inteligencia de la ciudad: economía, personas, gobierno, movilidad, entorno y habitabilidad. Sin embargo, debido a la fase temprana en que se encuentra el paradigma Smart City, los retos son aún numerosos [Batty, 2012]: • • • • • • • Una nueva visión de los problemas urbanos Métodos efectivos y viables de coordinar las tecnologías urbanas Modelos y métodos para utilizar la información urbana aprovechando sus escala espacio temporal Desarrollo de tecnologías de difusión y comunicaciones Nuevas formas de organización del gobierno urbano Definición de problemas urbanos, de transporte y energía Manejo del riesgo, incertidumbre y amenazas en la Smart City El objetivo del presente artículo es describir una forma de implementar la automatización de la generación de servicios web que mejore la interoperabilidad entre la recolección de datos y el consumo de los mismos. En una arquitectura orientada a servicio para la gestión de una Smart City, como la propuesta en [Al-Hader et al., 2009], se busca una planificación y gestión de recursos eficiente que redunde en mayor calidad de servicio. La generación automática de servicios web para la explotación de los datos generados por los diferentes dispositivos, incrementará la interoperabilidad entre los componentes de la arquitectura facilitando su integración. Referencias [Al-Hader et al., 2009] Al-Hader, M., Rodzi, A., Sharif, A. R., & Ahmad, N. (2009). SOA of Smart City Geospatial Management. 2009 Third UKSim European Symposium on Computer Modeling and Simulation, 6–10. doi:10.1109/EMS.2009.112 [Batty, 2012] Batty, M., Axhausen, K. W., Giannotti, F., Pozdnoukhov, a., Bazzani, a., Wachowicz, M., … Portugali, Y. (2012). Smart cities of the future. The European Physical Journal Special Topics, 214(1), 481–518. doi:10.1140/epjst/e2012-01703-3 117 A multidimensional perspective to recommend experts Germán Sánchez ESADE-URL Sant Cugat del Vallès german.sanchez@esade.edu Abstract This works introduces an expertise recommender system designed for recommending not just the person with the right level of expertise in a certain set of topics, but also “the right expert”. This is achieved by extending the dimensions considered in the recommending process. Apart from the expertise of the candidates, we consider their qualifications, proximity and current availability. 1 Introduction Recommender systems can help people in organisations to find people who have some expertise in a specific area. Such expertise recommender systems (ER) will allow organisations to expand the interaction among users (workers) with different backgrounds and expertise level, leading to improving creativity in the generated solutions. In the literature of expertise recommender systems, they focus on finding the expert with the “right level of expertise” rather than “the right expert”. The ER described in this work tries to fill this gap by considering additional information regarding how the candidates interact with the existing system in the organisation (qualifications), their proximity to the user and their current availability. Some of the analysed systems take into account more information than just the expertise of the candidates. However, this information is not treated in the most effective way: in some cases, it is just used to filter the recommendations; in other cases, this information is aggregated by means of a weighted mean, requiring the user to define a set of parameters. Both approaches could result in a candidate being prematurely discarded due to one of the considered criteria, while meeting most of the requirements of the user with high scores. This work describes a system to recommend people based on an appropriate mixing and an optimal matching of the characteristics of the candidates and the preferences of the user. This is achieved by taking into account simultaneously not only the expertise of the candidates but other relevant features. The system allows the user to select the requirements that best fit his/her interests. The recommendation is based on the user’s inputted information, and allows him/her to select among the recommended experts from a generated ranking. Núria Agell ESADE–URL Sant Cugat del Vallès nuria.agell@esade.edu 2 Architecture The ER system introduced in this work is a content-based recommendation system based on the definition of candidates’ profiles and the user’s preferences when asking for a recommendation. The user can take advantage of this system to know who “is good at what” (expertise) while also fulfilling his/her other requirements such as experts’ qualifications, proximity to the user and current availability. Once the possible experts are selected, the system returns an ordered list ranked according to the user’s preferences. As displayed in Figure 1, the ER system can be considered as an adaptation of the architecture ER-Arch for expertise recommender systems introduced by [McDonald and Ackerman, 2000]. Figure 1: Architecture of the ER introduced Based on the mentioned architecture, the ER system consists of four modules: profiling, identification, selection and interaction. The Profiling module is responsible for building and maintaining profiles to be used in the recommendation process. Therefore, the main responsibility of this module is to translate data collected from the environment in which the system is embedded into candidates profiles. The profile of each candidate would be characterised by four different types of variables: 118 • Expertise variables represent the areas of knowledge of the candidate. • Qualification variables capture the behaviour of the candidate while working with the system of the organisation. • Proximity information is used to measure the distance between the user and the candidate, that is to say, the ease of contact. • Availability variable informs about the current availability of the candidate. The Identification module builds an initial list of candidates feasible to be recommended. The Selection module is responsible for analysing and ranking the list of initial candidates. This module consists of the following tasks: • Assessing each candidate according to the user’s requirements. • Aggregating the assessments into an overall degree. • Ranking and selecting candidates. The Interaction module provides the user with the necessary tools to define the recommendation requirements. 3 Conclusion The system introduced in this work focuses on finding “the right person” that will provide the used not only with the right level of expertise but also with the right fit of his/her needs. The ER presented performs this task by requesting the minimum number of inputs to the user, i.e., reinforcing the usability of the system. Ultimately, this approach will enhance the collaborative work between perhaps previously unknown parties in the organisation and therefore will improve the creativity of the obtained solution. References [McDonald and Ackerman, 2000] David W. McDonald and Mark S. Ackerman. Expertise recommender: a flexible recommendation system and architecture. In Proceedings of the 2000 ACM conference on Computer supported cooperative work, pages 231–240. ACM, 2000. 119 Incorporating biomedical knowledge into m-Health applications: An example public-private partnership Josep Vehi and Remei Calm Institut d’Informàtica i Aplicacions, Universitat de Girona, Campus de Montilivi, Edifici P-IV, Girona Josep.vehi@udg.edu Remei.calm@udg.edu Abstract In this paper a proposal to include biomedical knowledge into m-health applications for Diabetes Management is depicted. This article describes the collaboration between MICELab Research Group at the University of Girona and Social Diabetes. Integrated personalized computer models are used for personalized health status monitoring and prediction, assisting in the day-to-day management of diabetes and promoting a healthy lifestyle. 1 Introduction M-health has become the paradigm in personalized health care, especially for chronic diseases. In the case of diabetes, m-health applications are the best solution to promote self-management of the disease by patients. Decision support tools, personalized prediction and prevention, risk assesment tools, training tools and the social capabilities are necessary components of any application of m-health. Social Diabetes is an example of m-health application that incorporates many of these features. However, for the effective use of m-healths application in the health care system, it is necessary to incorporate more biomedical knowledge in them. Collaboration between MICELab group at the University of Girona and Social Diabetes aims to turn the Social Diabetes application on a standard for personal health systems for diabetics. A patient-oriented system needs not only to: (i) provide an early estimate of individual risk, and (ii) assist in the-day-today management of diabetes, but also (iii) to calculate the risk of diabetic complications for the individual, and the comorbidities at a time, and (iv) to suggest effective, personalized preventive and protective measures. 3 M-health applications for diabetes management. One of the main gaps for the development of m-health applications (and for any Personal Health Systems), is the infusion of biomedical knowledge into m-health applications: i) m-health apps are not integrated with clinical evidence, biomedical and genetic information; ii) Data from uncontrolled conditions in need of validation; and iii) mhealth apps not integrated with clinical guidelines and pathways. In our proposal, physiological and epidemiological models will be integrated into the m-health application, incorporating clinical evidence and biomedical information. Data from controlled experiments will be used to validate and update the physiological models. Important clinical issues will be addressed through modeling, i.e.: the reduction of the impact of hypoglycemia and an increased awareness for the patient of the implications of lifestyle in long-term complications. This will be done through the development of tools for short-term hypoglycemia risk assessment and prevention, prediction of mid-term glycemic control outcomes and longterm complications assessment. 2 Needs in Diabetes Management There is a growing body of evidence for the need for an individualized approach to diabetes treatment. Contributions from systems engineering to what it has been coined “systems medicine” has made possible the development of systemic individualized models used for therapy optimization, hypoglycemia prediction or closed-loop glycemic control (artificial pancreas), among other applications, bridging the gap to relevant clinical issues. 4 Integrated personalized models The key component of such system is an individualized integrated model of a T1DM patient, with prediction capabilities at different time scales. Target predicted clinical outcomes comprise hypoglycemia risk (short-term), measures of glycemic control (mid-term) and risk of developing complications, both micro- and macro-vascular (long-term). This is addressed through the integration of different modeling tech- 120 nologies at different levels: i) probabilistic models are used to describe patient lifestyle or behavior; ii) physiological models describe glucose-insulin regulatory system; and iii) epidemiological models are used to assess the long-term risk of complications and co-morbidities. In the short term, physiological models are able to deal with intra-patient variability employing interval model technology, providing consistent inputs for the hypoglycemia risk prediction module. Lifestyle/behavior models provide probabilistic mid-term scenarios to be simulated using the glucose-insulin model. The glycemic control prediction module uses the results of these mid-term simulations to predict mid-term outcomes: A1c, glucose variability, number of hypoglycemia events, etc. The output of the physiological model and the glycemic control model together with other patient-specific data will be inputs to the epidemiological complications model. Acknowledgments Research supported by the Spanish Ministry of Science and Innovation under grant DPI2010-20764-C02. 121 Using an improved rule match algorithm for the detection of broken driving rules in an energy-efficient and safety relevant driving system Emre Yay, Natividad Martínez Madrid1 Juan Antonio Ortega Ramírez² 1 Reutlingen University School of Informatics Alteburgstr. 150, 72762 Reutlingen, Germany {emre.yay, natividad.martinez}@reutlingen-university.de 2 University of Seville Department of Languages and Computer Systems Av. Reina Mercedes s/n, 41012 Seville, Spain jortega@us.es Abstract The individual driving behaviour has the opportunity to improve the energy-efficiency and safety of a car. So far, the vehicles were improved to save energy and to increase the safety mainly by optimising the engine and the power train. In this paper, an improved rule match algorithm is introduced, which is used in the expert system of human-centred driving system. The goal of the driving system, which is in development, is to optimise the driving behaviour in terms of energy-efficiency and safety by giving recommendations to the driver. The improved rule match algorithm is used to check the incoming information about the car, driver and the environment against the driving rules to recognise any breakings of a driving rule. The information is gained by monitoring the car, the driver and the environment using in-vehicle sensors and serial-bus systems. On the basis of the detected broken driving rules, the driving system will create individual recommendations, which will allow eliminating bad driving habits, while considering the driver needs. 1 Introduction The protection of the environment and saving energy became fundamental for society and politics [1]. Thus, several laws were enacted to reduce the greenhouse gas emissions and to increase the energy-efficiency. Furthermore, the increasing number of drivers and vehicles on the road leaded to more accidents and fatalities on the road [2]. According to [3] the driving behaviour has a great impact on safety and on the energy consumption of the car. Thus, adapted driving can save energy up to 30% [4]-[6] and can increase the road safety. On the basis of these facts a driving system is introduced briefly in this work, which is currently under development. The goal of the driving system is to optimise the driving behaviour of the driver in energy-efficiency and safety by giving recommendations to the driver. It is possible to fulfil the energy-efficiency and safety potential of adapted driving when the driver adheres the energy-efficiency and safety relevant driving recommendations. There are already driving systems trying to optimise the driving behaviour in the terms of energy-efficiency or safety [7]-[8]. However, these driving systems cover either the area of energy-efficiency or safety. In contrast to these systems, the driving system introduced in this paper will try to improve the driving behaviour in terms of energy-efficiency and safety. Furthermore, it adapts itself to the individual driving behaviour by creating a driving profile of the driver. This allows to create recommendations based on any negative change of the driving behaviour or the driver condition. In addition, the acceptance of the driving system could be increased, as the driving system will show only useful recommendations to the driver. The first prototype of the driving system will be developed on the basis of a driving system. The second prototype will be connected to a real car, to test the driving system in a real environment. The following chapter gives a brief overview over energyefficient or safety relevant driving systems. Chapter 3 shows the architecture of the driving system. The rule match algorithm used to detect broken driving rules is introduced and evaluated in the chapters 4 and 5 respectively. Finally, a conclusion of this work and a forecast about the future work are given in chapter 6. 122 2 Related Work There are already driving systems trying to increase the driving behaviour in terms of energy-efficiency or safety by giving recommendations to the driver. The driving system ANESA [9] is trying to reduce the energy consumption of the car through freewheeling. This approach saves up to 13% when the drivers followed the instructions of the driving system on time. However, freewheeling is only one aspect of energy-efficient driving, therefore the energy-savings could be increased more using driving rules mentioned for example in [6]. Another driving system [10] is trying to educate the driver in eco-driving by giving advices to eliminate bad driving habits. It runs on a mobile phone and is based on the interaction between the mobile phone and the car. The needed information for generating the recommendations are gathered using the internet connection of the mobile device and the diagnostic port of the car. However, the internet connection of the mobile device may not be available during the whole journey, why it is not guaranteed that the driving system is able to gather all needed data for further processing. Additionally, the driving system does adapt itself to the individual driving behaviour of the driver. The driving system of Kia [7] tries to increase the energyefficiency by indicating an energy-efficient driving behaviour using two different coloured lamps, which mean energyefficient driving and stand-by of the driving system or normal fuel consumption of the vehicle. However, the driving system shows neither the wrongdoings of the driver nor gives driving recommendations to the driver. This would allow to eliminate the bad driving habits of the driver, which are the main cause of an inefficient driving behaviour. The positive effect of an energy-efficient driving behaviour is that it supports safety, as it prevents aggressive driving, which is the main cause of accidents [4]. Besides the driving systems with the focus on energy-efficiency, there are also driving system with respect to safety. DAISY [11] monitors the driver, the current driving situation and the driver condition to be able to create warnings in dangerous situations. However, DAISY shows only warnings when an dangerous situation is detected, for example situations which are susceptible for distractions, instead of trying to improve the driving behaviour in terms of safety or eliminating the bad driving habits, which might have caused the dangerous driving situation. Another driving system with the focus on safety is DriveDiagnostics [8], which tries to educate the driver in terms of safety. It monitors and analyses the car movement to indicate the trip safety. DriveDiagnositcs consists of two feedback systems: a real-time and an online feedback system. The realtime feedback warns the driver when his current driving behaviour does not match his typical driving behaviour or when an aggressive driving behaviour is detected. In contrast, the offline feedback shows the average trip safety to the driver after the journey based on the recorded data during the journey. However, the safety could be increased more by monitoring additionally the driver condition. This would allow the detection of uncommon driver conditions like fatigue using a tracking system [12] or drowsiness by using vital sensors [13]. Thus, the condition of the driver could be another factor for detecting dangerous driving situations. The presented driving systems cover either the area of energy-efficiency or safety. Furthermore, they do not consider the individual driving behaviour or the condition of the driver. In contrast, the driving system described in this work adapts itself to the individual driving behaviour and considers the driver condition. Furthermore, it tries to improve the driving behaviour in the areas of energy-efficiency and safety. This allows the creation of individual driving recommendations in terms of energy-efficiency and safety, while considering the driver needs. 3 Architecture of the Driving System Figure 1: An excerpt of the driving system's architecture The driving system described in this paper is based on the multi-tier architecture shown in Fig. 1. The driving system has three main components, which are described in the following: The Data Layer is responsible for collecting all relevant data from the car, the environment and the driver. It is connected to the in-car serial-bus systems to receive information about the car, to vital sensors for monitoring the driver and to other sensors, which are relevant for gathering information about the environment, like the weather condition. On the basis of the collected information a driving profile is generated, which describes the typical driving behaviour of the driver. Furthermore, the Data Layer administrates and stores all relevant information for further processing. The information stored and administrated in the Data Layer is used in the Processing Layer to analyse the driving behaviour. Therefore, it first predicts the car state using the stored data in the Data Layer. On the basis of the prediction and the data stored in the Data Layer it checks if a driving rule is broken. Finally, it generates on the basis of the detected broken driving 123 rule and the driving profile individual recommendations, which guide the driver to drive energy-efficient and safe. The main purpose of the Graphical Layer is the rendering of the graphical user interface on the in-vehicle display unit. Furthermore, it is responsible for showing the generated recommendations to the driver using for example the graphical user interface or an acoustic signal. It provides also the opportunity to configure the driving profile by choosing the areas that the driver wants to be improved like energy-efficiency, safety or both areas. In the following the Data Layer is described briefly. As the main focus of this paper is the process of the recommendation creation, especially the rule matching algorithm, the Processing Layer will be described in detail. 3.1 Data Layer The Data Layer is responsible for gathering all needed information from the car, the driver and the environment. Therefore, it is connected to the in-vehicle serial-bus systems and to different sensors. In the first prototype the Controller Area Network (CAN) serial-bus system is used to gather the information about the car. An ear sensor is used to monitor the pulse of the driver, which allows to calculate the heartrate coherence. It can be used to indicate drowsiness [14] and stress [15] of the driver. As the environment of the car influences the energy-efficient and safe driving, for example the weather condition, different sensors are connected to the Data Layer for measuring these influences. On the basis of the incoming data, a driving profile is generated to represent the typical driving behaviour of the driver. However, the driving profile has to be updated until it has enough data to represent the typical driving behaviour. The gathered data are stored in the working memory, which is placed in the Short Term Knowledge Base. The Mid Term Knowledge Base consists of the driving profile. Finally, the Long Term Knowledge Base stores information about the car, like mileage, and the driving rules. 3.2 Processing Layer The Processing Layer is responsible for analysing the driving behaviour in terms of energy-efficient and safe driving. On the basis of the result of the analysis, the individual driving behaviour and the reaction of the driver to already given recommendations the Processing Layer generates the driving recommendations. The analysis of the driving behaviour is done in the Rule Selector module. The Recommendations Inference Engine of the Processing Layer decides whether to generate a recommendation and show it to the driver or not. Moreover, the driving system tries to give an early feedback to the driver why the state of the car is predicted in the Prediction Engine module using the Autoregressive-Moving Average algorithm [16]. This allows to show the recommendations to the driver on time, why the driver has enough time to avoid the breaking of the rule. All relevant information that is needed in the Processing Layer is gathered from the Data Layer, respectively from the Short-, Mid- and Long Term Knowledge Base. In the following the modules Rule Selector and Recommendations Inference Engine will be described in detail. If the reader is interested in the Prediction Engine module of the driving system, the reader is encouraged to read [17]. 3.2.1 Rule Selector The Rule Selector module is responsible for the detection of any broken driving rules, deviations from the typical driving behaviour and any uncommon driver condition, for example stress, anger and so on. Therefore, it compares the gathered data from the Short Term Knowledge Base and the predicted data against the driving rules and the driving profile using a rule match algorithm. On detection of any broken rule, deviation from the typical driving behaviour or an uncommon driver condition the recognised irregularity and the corresponding data is put in to the Broken Rules Queue for further processing. The Broken Rules Queue stores all detected irregularities and the data which caused the irregularity. The rule match algorithm used to analyse the current driving behaviour is described in chapter 4. 3.2.2 Recommendations Inference Engine The Recommendations Inference Engine decides if it is necessary show a recommendation to the driver. This allows to increase the acceptance of the driving system by avoiding the bothering of the driver by showing the driver recommendations which are not relevant in the mind of the driver. To achieve this, the Recommendations Inference Engine first gets an irregularity from the Broken Rules Queue and checks the corresponding information against the driver profile, which stores the already given recommendations and the past reaction of the driver to them. The reaction to the already given recommendations are calculated during the next cycles after showing the recommendation. During the cycles, the changes of the values that are relevant for a specific recommendation are analysed. If the changes are positive the driving system can assume that the driver adhered the recommendation. However, as the driver needs some time until the driver is able to notice and to react to a recommendation, the analysis of the reaction to a recommendation will be started after a certain time. The following example shows the explained approach. After giving the recommendation “to shift the gear to the next, to keen the engine speed down” the Recommendations Inference Engine first waits until it starts the analysis of the driver reaction. After a certain time, the Recommendations Inference Engine monitors the gear during the next cycles and checks if the driver has shifted the gear. If a higher gear is recognised the Recommendations Inference Engine will assume that the driver adhered the given recommendation. In contrast, if no higher gear is noticed, the Recommendations Inference Engine will show the same recommendation after a 124 Figure 2: The networks of the different algorithms: (1) Rete, (2) Treat, (3) Leaps and (4) the improved rule match algorithm certain time again. In case of a repeated ignorance of that recommendation, the Recommendations Inference Engine will decrease the generation frequency of that recommendation. This allows the driving system to adapt itself to the individual driving behaviour whereby the driver is not bothered by showing the same recommendation. Furthermore, the acceptance of the driving system can be increased, as recommendations, which are not relevant in the mind of the driver, are not showed. 4 Rule matching algorithm The rule matching algorithm is used in the Rule Selector module, explained in chapter 3.2.1, to detect the breaking of driving rules, deviations from the normal driving behaviour or an uncommon driver condition. There are already several rule match algorithms whose goal is to compare rules against a certain data set such as Rete, Treat and Leaps. In case of the presented driving system the rules used in the rule match algorithms represent the rules for the detection of broken driving rules, the rules to detect deviations from the typical driving behaviour and the rules for the detection of uncommon driver conditions. A rule used in a rule match algorithm consists of conditions and consequences. A condition in the driving rule to shift as soon as possible would be “current rpm < 2500 rpm” and “gear < 6th gear”, whereby the consequence of that rule would be “shift up the gear” to keep the engine speed down, when the driver is not driving at the highest gear. The Rete algorithm [18] is using a tree structured network to represent the rules, also called Rete network. Figure 2 (1) illustrates the Rete network of the rule to shift as soon as possible. A Rete network consists of alpha and beta nodes. Each alpha node represents one condition of a rule, whereby a beta node represents the intermediate relation of the alpha nodes. For example the condition “current rpm < 2500 rpm” is represented by one alpha node. The beta node in our example represents the relation of the alpha nodes “current rpm > 2500 rpm” and “gear < 6th gear”. The alpha and beta nodes consists of a memory, which is used to store a copy of the data that matched the node conditions. Thus, when the data set of changes, the data within the Rete network has to be updated. This is done by the Rete network by deleting the old data stored in the node memories and adding the new data, which matched the node conditions, into the node memories. If all node conditions are satisfied, the rule is put into the conflict set, which consists of all rules whose conditions are satisfied. The conflict set is resolved and thus the consequence of the rule is fired according to the conflict set resolution strategy, which the user has to define, for example first come, first served. The Treat algorithm [19] is the evolution of Rete. The major difference of Treat is that is does not use beta nodes to represent the intermediate relation of the alpha nodes, see Figure 2 (2). Instead, the relations of the alpha nodes are calculated when they are needed. In the example in Figure 2 (2) the relation of the alpha nodes A and B are recomputed, when the incoming data satisfied the condition of the nodes A and B. If the result of the computation is positive, the rule is put into the conflict set, where it waits for its activation according to the conflict set resolution strategy. According to Miranker [19] Treat is more effective than Rete as it needs less memory, due to the missing beta nodes, and as it requires fewer comparisons until the data is bind to the corresponding node. Furthermore, the Treat algorithm does not compute the alpha and beta nodes during the deletion of old data from the node memories, as it manipulates the alpha nodes and the conflict set directly. However, according to the evaluation results of Nayak et. al [20] the Rete algorithm outperforms Treat in most cases, especially when it is used in static structures, as Rete saves intermediate relations instead of recomputing them. The difference in the results can be explained as Nayak et al. used different metrics than Miranker, who 125 Figure 3: The result of the evaluation using the rules (1) shift as soon as possible at the latest by 2500 rpm, (2) do not exceed the speed limit and (3) keep enough distance to the preceding car counted only the number of comparisons, which may not “reflect the intrinsic differences between the match algorithms” [20]. The Leaps algorithm [21], see Figure 2 (3), is based on the Treat algorithm, why it is using alpha nodes for representing the rule conditions and computes the intermediate relations of the alpha nodes when required. The extension of the Leaps algorithm is the lazy evaluation of the rules and the combination of the conflict set resolution strategy with the rule matching process. This allows to increase the firing rates of the rule consequences and thus the decreasing of the execution time. Figure 2 (4) shows the network of the improved rule match algorithm, which contains of two alpha nodes, which point to the corresponding value in the data set, and one beta node. The approach of the improved rule match algorithm allows a faster processing of the rule matching as it does not have to update the data of every node of after every change of the data set, which is inefficient for the driving system. Another advantage of the algorithm is that the memory usage of the improved rule match algorithm is less, as the alpha nodes store only pointers to the data instead of storing the value itself. The basis for the improved rule match algorithm is the Rete algorithm, as Treat is outperformed by the Rete algorithm [20]. Furthermore, the Leaps algorithm combines the rule matching with the conflict set resolution why it can be neglected as the driving system is using the Recommendations Inference Engine to solve the conflict set, respectively the Broken Rules Queue. The data set used in the Rule Selector module consists of information about the current driving behaviour. These information are stored in tuples, which are defined by the name of the information and the corresponding value, for example “current rpm : 3000”. The amount of the stored tuples are not changing during the journey, instead they are gained at the beginning of the journey from the car, the driver and the environment. After the first gathering of the tuples, the values of the information are updated during the journey in the frequency of 100 Hertz. Thus, the usage of the original Rete algorithm in the presented driving system would cause massive delete and write operations to keep the Rete network up to date. To solve this issue, the Rete algorithm has been modified, so that the alpha nodes are getting a pointer to the corresponding tuples during the initialisation of the Rete network. Thus, after the update of the values in the tuples, the Rule Selector module initiates the checking of the alpha node conditions. If a condition of an alpha node is satisfied, the result is stored in a logical value and is passed to the corresponding beta node. The result of the alpha nodes are stored in the beta nodes using a logical value, as well. This allows to avoid the storage of the values within the node memories. 5 Evaluation & Results The evaluation of the improved rule match algorithm was done by using a recorded eight minute journey on a driving simulator. The recorded journey consisted of information about the car like car speed, revolutions per minute and so on. On the basis of the recorded journey, we evaluated the improved rule match algorithm and the Rete algorithm using three different driving rules: 1. Shift as soon as possible at the latest by 2500 rpm 2. Do not exceed the speed limit 3. Keep enough distance to the preceding car To measure the efficiency of the algorithms we used counted the accesses to the node memories and the comparisons of the data updated in the node memories. During the first measurement, both algorithms were initialised using the first driving rule, which was used in Chapter 4 as an example. After the initialisation the networks of both algorithms had the same structure as in Figure 2 (4) and Figure 2 (1) with two alpha nodes and one beta node. The networks of the algorithms consisted of only one alpha node and no beta node during measurement of the second and third driving rule, as these rules have only one condition. As shown in the result in Figure 3, the improved rule match algorithm outperforms the Rete algorithm, as it needed fewer comparisons of the node conditions and fewer accesses to the node memories. During the eight minute journey, the improved rule match algorithm had only two accesses to the 126 node memories to keep the nodes up to date, as it passes only a pointer to the nodes, which point to the corresponding value in the data set. In contrast, the Rete algorithm needed more accesses to the alpha and beta node memories, in which it removed the old and added the new data, which satisfied the node condition. Furthermore, the Rete algorithm needed more comparisons of the data against the different node conditions as the improved match algorithm. The improved rule match algorithm needed about 14 times less data comparisons against the node conditions of the third driving rule “do not exceed the speed limit”. In summary, the Rete algorithm needed more comparisons and more accesses than the improved rule match algorithm. The difference of the performance is the effect of passing a pointer to the nodes and signalling to check the node conditions when the data set is updated instead of passing every updated value to the network. The approach of the improved rule match algorithm saves comparisons and accesses to the node memories as the nodes get only pointers to the values in the nodes, which are relevant for their comparison. However, the Rete algorithm passes all changed values in the tuples to the network, which then has to check first if the incoming value is relevant for the node and then if the node condition is satisfied by the new arriving value. Thus, the usage of the Rete algorithm is inefficient for the usage in the presented driving system, as it gathers the data frequent from the car, the driver and the environment, which would lead to a frequent recomputation of the alpha and beta nodes. 6 Conclusion & Further Work In this paper an improved rule match algorithm was introduced, which is used in an energy-efficiency and safety relevant driving system to detect broken driving rules and deviations from the typical driving behaviour. On the basis of the detected broken driving rules and deviations from the typical driving behaviour, the driving system creates recommendations, which help eliminating bad driving habits which caused the breaking of the driving rule or the deviation from the typical driving behaviour. The rule match algorithm introduced in this paper is based on the Rete algorithm. However, the major difference is saving a pointer to the relevant data within the node memory instead of saving the data itself, which satisfied the node condition. This change of the algorithm is the main reason why the performance of the improved rule match algorithm is better in the evaluated environment. In Rete the matching of a frequent changing data set involves a frequent recalculation of the alpha and beta nodes, while the improved rule match algorithm is able to access the updated data using the pointer stored in the nodes. The improved rule match algorithm has to be evaluated also against the Treat algorithm, as the Treat algorithm does not use beta nodes to improve the performance. Furthermore, since the Recommendations Inference Engine decides if a recommendation should be shown to the driver or not, it has to be figured out, which algorithm fits the needs of the Recommendations Inference Engine. As the development of the driving system is still in progress, a user friendly concept has to be worked out, according to the usability guidelines for human-machine interfaces for in-vehicle systems [22] and the recommendations have to be displayed in a noticeable way without distracting the driver. References [1] Mehmet Yay, Elektromobilität, Lang, Peter GmbH, 2010 [2] German Statistical Office, Verkehr – Verkehrsunfälle, Wiesbaden, Germany, 2011 [3] Fan Xiaoqiu, Ji Jinzhang, Zhang Guoqiang, Impact of Driving Behavior on the traffic safety of Highway Intersection, Third ICMTSA, 2011 [4] N. Haworth, M. Symmons, Driving to Reduce Fuel Consumption and Improve Road Safety, Australian Transport Council; 2001 [5] H. Helms, U. Lambrecht, J. Hanusch, Energieeffizienz im Verkehr; In Energieeffizient, Publisher Martin Pehnt; Springer; 2010 [6] J. Van Mierlo, G. Maggetto, E. Van de Burgwal, R. Gense, Driving style and traffic measures – influence on vehicle emissions and fuel consumption, In Proceedings Institution of Mechanical Engineers Vol. 218 Part D: Automobile Engineering, 2004 [7] Kia Website, Eco Driving System, http://kia-buzz.com/?p=252, Last visit: 24.09.2014 [8] Tsippy Lotan, Tomer Toledo, An In-Vehicle Data Recorder for Evaluation of Driving Behavior and Safety, Transportation Research Board of the National Academies, 2006 [9] T. Bär, R. Kohlhaas, J. Zöllner, K.-U. Scholl, Anticipatory Driving Assistance for Energy Efficient Driving, ISTS, Vienna; 2011 [10] Corcoba Magana, V; Munoz Organero, M, Artemisa, Using an Android device as an Eco-Driving assistant, Cyber Journals: Multidisciplinary Journals in Science and Technology, Journal of Selected Areas in Mechatronics(JMTC), June Edition, 2011 [11] Reiner Onken, DAISY, an Adaptive, Knowledge-based Driver Monitoring and Warning System, Vehicle Navigation & Information Systems Conference Proceedings, 1994 [12] H. Singh; Mr. J.S Bhatia; Mrs. Jasbir Kaur, Eye Tracking based Driver Fatigue Monitoring and Warning System, IICPE, India, 2010 [13] Arun Sahayadhas, Kenneth Sundaraj, Murugappan Murugappen, Detecting Driver Drowsiness Based on Sensors: A Review, Sensors Vol.12 Issue 12, Basel, Switzerland, 2012 [14] H. Shin, S. Jung, J. Kim, W. Chung, Real Time Car Driver’s Condition Monitoring System, IEEE SENSORS 2010 Conf., 2010 127 [15] M. Kumar, M. Weippert, R. Vilbrandt, S. Kreuzfeld, Regina Stoll, Fuzzy Evaluation of Heart Rate Signals for Mental Stress Assessment, IEEE Transactions on Fuzzy Systems, Vol. 15, No. 5, 2007 [16] Peter J. Brockwell, Richard A. Davis, Introduction to Time Series and Forecasting, Springer, 2002 [17] Emre Yay, Natividad Martínez Madrid, SEEDrive: An Adaptive and Rule Based Driving System, 9th Internation Conference on Intelligent Environments, 2013 [18] Charles L. Forgy, Rete: A Fast Algorithm for the Many Pattern/Many Object Pattern Match Problem, Expert Systems, 1990 [19] Daniel P. Miranker, TREAT: A Better Match Algorithm for AI Production Systems, AAAI'87 Proceedings, 1987 [20] Pandurang Nayak, Anoop Gupta, Paul Rosenbloom, Comparison of the Rete and Treat Production Matchers for Soar (A Summary), AAAI, Pages 693-698, 1988 [21] Daniel P. Miranker, David A. Brant, Bernie Lofasso, David Gadbois, On the Performance of Lazy Matching in Production Systems,AAAI-90 Proceedings, 1990 [22] European Commission, Commission Recommendation on safe and efficient in-vehicle information and communication systems: update of the European Statement of Principles on human machine interface, Official Journal of the European; 2007 XVI Jornadas de ARCA Author Index Agell, Nuria Angulo, Cecilio Álvarez de La Concepción, Miguel Ángel Álvarez-Garcı́a, Juan Antonio Bernabé-Sánchez, Iván Calm, Remei Campos Lucena, Marı́a Soledad Corcoba Magaña, Vı́ctor Cuadrado-Cordero, Ismael Cueto, Alfonso Dı́az-Sánchez, Daniel Falomir, Zoe Fernández, Damián Fernández-Montes, Alejandro González-Abril, Luis Lillo-Fantova, Lucı́a Martı́nez Madrid, Natividad Mast, Vivien Museros, Lledó Muñoz, Diego Muñoz-Organero, Mario Márquez Vázquez, José Manuel Ortega, Juan Antonio Raya, Cristóbal Ruiz, Francisco J. Salord, Lluı́s Samà, Albert Sanz Dı́az, M Teresa Sanz, Ismael Soria Morillo, Luis Miguel Sánchez Venzalá, José Ignacio Sánchez-Hernández, Germán Téllez, Ricardo A. Vale, Daniel Vehi, Josep Velasco Morente, Francisco Velasco, Manel Yay, Emre Yñiguez Ovando, Rocı́o 128 99, 117 73, 85, 105 1 1, 55, 111 5 119 11, 47 49 111 55 5 57, 69 67 67, 115 57, 67, 69, 79, 91 73 121 57 57, 69, 79 85 5, 49 91 67, 91, 111, 115, 121 99 99 105 99 11, 47 69, 79 1, 55, 111 115 117 73 57 119 11, 47, 91 73, 85, 105 121 11, 47