ChileVive en terreno

Las últimas dos semanas, el equipo del proyecto ChileVive estuvo entrevistando y encuestando acerca del proceso de procuramiento de posibles donantes de órganos en el Hospital Barros Luco, donde tuvo gran acogida por parte del personal.

Parte fundamental del proyecto de trasplantes, Chile Vive, es el estudiar el proceso de pesquisa o detección de posibles donantes de órganos en hospitales, con el fin de conocer desde dentro cómo se lleva a cabo este proceso y cómo el personal sanitario (médicos, enfermeras, técnicos en enfermería y paramédicos, auxiliares de servicio, tecnólogos médicos, entre otros) lo vive y lo desarrolla.

Para poder conocer esto, el equipo Chile Vive del WIC, visita hospitales y realiza un trabajo investigativo de campo en las unidades hospitalarias que participan del proceso de procuramiento (esto es, Unidad de Procuramiento, Urgencia, UCI, Laboratorios y Dirección), donde, para extraer información del proceso, del conocimiento del personal y la opinión particular de éste en torno a la donación de órganos, utiliza una metodología mixta de investigación.

Pero, ¿Qué es una metodología mixta?

Una metodología mixta es una combinación de metodología Cualitativa y metodología Cuantitativa, es decir, “implica un conjunto de procesos de recolección, análisis y vinculación de datos cuantitativos y cualitativos en un mismo estudio o una serie de investigaciones para responder a un planteamiento de problema”. Existen múltiples diseños de metodología mixta, y su elección dependerá del tipo de información que se quiere recolectar y el cómo se quiere hacer.

Así, para esta investigación se escogió una de Diseño de Integración Múltiple (DIM), el cual, como su nombre lo dice, integra o mezcla diferentes métodos. Entonces, los métodos mezclados fueron el de Diseño Transformativo Concurrente (DISTRAC), ya que “la recolección y el análisis son guiados por una teoría, visión, ideología o perspectiva”, la cual, en este caso es que hay ineficiencias intrahospitalarias que provocan una baja pesquisa de posibles donantes de órganos; y el de Diseño Anidado Concurrente (al mismo tiempo) en Varios Niveles (DIACNIV), es decir, se recolectan los datos cualitativos y cuantitativos al mismo tiempo pero tienen niveles de relevancia diferentes, donde el nivel dominante, en este caso, es el Cualitativo.

Los métodos de recolección escogidos para los niveles son la Entrevista Semiestructurada para el nivel Cualitativo, la cual consiste en una serie de preguntas al respecto del trabajo diario del personal, cómo participan en el proceso de pesquisa y procuramiento, y cómo observan que el tema es tratado en el hospital, donde las preguntas dejan espacio para que el entrevistado se explaye y pueda tratar otras aristas. La cantidad de respuestas necesarias en este método son las que hagan que la información obtenida sature, es decir, que desde la última entrevista realizada, no se obtenga información diferente.

Para el caso del nivel Cuantitativo, se escogió la Encuesta Estructurada, donde se le pregunta al personal por su posición personal frente a la donación de órganos, teniendo que responder en base a alternativas previamente construidas. Y la cantidad de respuestas necesarias es el número que haga que la información obtenida sea estadísticamente significativa.

Lo interesante de esto, es que de las entrevistas es posible extraer información cuantitativa, la cual fue estudiada y transformada a preguntas cerradas, y es preguntada al personal que no fue entrevistado, usando una encuesta extendida, permitiendo así llegar a la significancia cuantitativa necesaria.

DOCODE y la Cámara de Diputados

Durante este lunes 02 de noviembre, en el marco del caso copy-paste, en el que distintos informes de parlamentarios que son solicitados a asesores externos, fueron analizados encontrando plagio en ellos, se sostuvo una reunión con el presidente de la cámara de diputados Fidel Espinoza, y el jefe de la oficina de informaciones Marco Sepúlveda, con el propósito de presentar nuestro servicio de detección de plagio DOCODE, y proponerlo como un aporte para el país.

Durante la reunión se mostraron las distintas bondades del servicio, como sus algoritmos de detección de plagio de última generación y la posibilidad de integrarlo en su propio flujo de trabajo, a través de su API, permitiendo que los documentos que se subieran en su sitio web se analizaran de manera automática, sin necesidad de intervención humana.

Se destacaron también algunos resultados obtenidos de los informes cuestionados en el marco del caso Copy-Paste, con niveles de plagio superiores, pocas veces vistos en la herramienta.

 

Con estos resultados, la cámara acordó trabajar sobre una propuesta en torno al plagio, cuyo actor principal sería DOCODE. Así también, se acordó trabajar en la creación de un congreso latinoamericano del plagio, organizado por la Universidad de Chile bajo el programa Nueva Ingeniería para el 2030.

Esperamos que este sea el inicio de una fructífera relación entre el estado y el Web Intelligence Centre, cuyo rol principal siempre ha sido el generar impacto en la sociedad a través de su investigación aplicada

OpinionZoom 2.0: Análisis de Twitter y Facebook en tiempo real

¿Qué dirías si te propongo conocer a todos los usuarios chilenos de Redes Sociales que están hablando de ti o tu organización? Me refiero a su edad, sexo, nivel de influencia e intereses. ¡Incluso más! Si están hablando positiva o negativamente, qué dicen cuando te mencionan y los reclamos contra ti o tu organización. Pues bien, ya está aquí OpinionZoom, la herramienta de análisis de Twitter y Facebook en Chile. Si eres escéptico, sólo dale una prueba a nuestra demo gratuita.

Leer más

Machine Learning y algunas buenas prácticas

En el WIC se desarrollan proyectos multidisciplinarios que suelen encontrarse con un punto en común: El uso de Machine Learning para la detección de ciertos fenómenos asociados a un problema que puede ser representado a través de un conjunto de datos.

Pero, ¿qué es Machine Learning? En palabras simples, es el uso de algoritmos computacionales para que una máquina aprenda a hacer cosas. Podría existir interés en aprender a completar una tarea, realizar predicciones etc. Este aprendizaje siempre se realiza a partir de observaciones o datos asociados al fenómeno que se pretende aprender, como ejemplos, experiencia directa, instrucciones, entre otros. Entonces la premisa general es aprender a hacer mejor las cosas en el futuro, en función de la experiencia del pasado.

Entonces, ¿cómo se desarrolla un proyecto de Machine Learning? Géron (2017) propone 8 pasos principales para llevar a cabo el proyecto:

1.- Mirar la imagen completa

Es importante identificar el contexto del problema. ¿Por qué llevar a cabo este proyecto es beneficioso para la organización? ¿Cuál es el objetivo de negocio? ¿Qué existe actualmente? ¿Cuáles soluciones alternativas tenemos? ¿Cómo mediré el desempeño de mi modelo? Estas preguntas son relevantes a la hora de definir el problema y sus alcances. Una vez que eso está claro, es posible diseñar el sistema que construiremos: ¿Qué tipo de tarea debo diseñar? ¿Una clasificación o regresión? ¿Se utilizará aprendizaje supervisado o no supervisado?

2.- Obtener los datos

Una vez que se determina el problema y el sistema, es hora de mirar los datos y estudiar su estructura. Estadísticas básicas como cantidad de datos, media, desviación estándar, entre otros. También selección de muestras (aleatorias o estratificadas según corresponda) para generar un set de datos de prueba y un set de entrenamiento. El set de entrenamiento es lo que permitirá enseñar al modelo aquellos patrones que desea identificar, mientras que el set de prueba es el conjunto de datos que permitirá probar el rendimiento del modelo.

3.- Descubrir y visualizar los datos para obtener información

Similar al paso anterior, pero la idea es un análisis más profundo a partir de visualizar los datos gráficamente, observar correlaciones entre los atributos existentes, etc.

4.- Preparar los datos para los algoritmos de Machine Learning

Antes de aplicar algoritmos de Machine Learning sobre los datos, es necesario pre-procesarlos/transformarlos a través de distintas técnicas para que los algoritmos tengan un buen desempeño. Entre estas transformaciones se puede destacar el escalar a través de normalización o estandarización (los atributos numéricos podrían tener escalas diferentes y esto puede impactar negativamente el desempeño de los algoritmos).

En vez de realizar este paso manualmente de forma constante, el autor recomienda escribir funciones para hacerlo, lo cual conlleva varios beneficios: Permitiría reproducir el pre-procesamiento de forma fácil en cualquier conjunto de datos, se podrían utilizar en un sistema que transforme los datos en el momento mientras opera (por ejemplo, si se estuviese trabajando con datos transaccionales) y hará que probar distintas combinaciones de transformaciones/pre-procesamientos sea sencillo de realizar.

5.- Seleccionar un modelo y entrenarlo

Ahora es el momento de seleccionar un modelo de Machine Learning y entregarle datos de entrenamiento para que pueda “aprender” a identificar lo que queremos. ¿Cuál es el algoritmo de Machine Learning que debo utilizar? La respuesta es: Depende. Primero, considerar si se pretende trabajar con un algoritmo de aprendizaje supervisado (es decir, que aprende en base a ejemplos previamente etiquetados) o si es un aprendizaje no supervisado (es decir, el algoritmo se encarga de organizar los datos y darles una estructura ya que esta no es conocida previamente). Otras consideraciones se asocian a la precisión deseada (podría preferir métodos menos precisos para evitar que el modelo se sobreajuste a los datos), el tiempo de entrenamiento, linealidad (por ejemplo en algoritmos de regresión logística o SVM donde se asume que las clases a identificar podrían estar separadas mediante una línea recta o su análogo en mayores dimensiones), cantidad de atributos, entre otros.

6.- Ajustar el modelo

Asumiendo que en el paso previo se realizaron pruebas con distintos algoritmos de forma tal que ahora se cuenta con una breve lista de algoritmos prometedores, es hora de ajustarlos de forma detallada. Los algoritmos de Machine Learning en general podrían recibir una gran cantidad de parámetros, los cuales deben ser ajustados y distintas combinaciones de valores para estos podrían dar resultados diferentes en función de los datos. Entonces, la idea es probar con distintos valores para encontrar la configuración más adecuada. Sin embargo, esto podría ser tedioso de realizar de forma manual. En general, paquetes de análisis estadístico y Machine Learning como Scikit-Learn en Python disponen de herramientas que permiten realizar automáticamente esta búsqueda de parámetros.

7.- Presentar la solución

Antes de iniciar todo, es importante “presentar” esta solución, lo que involucra destacar lo aprendido, documentar aquellos elementos que funcionaron y que no funcionaron, dejar claros los supuestos hechos sobre el modelo y las limitaciones que éste tiene. Esto permitirá que sea validado por quienes deben aprobar su lanzamiento a producción.

8.- Iniciar, supervisar y mantener el sistema

Finalmente, luego de validar correctamente el modelo es hora de llevar la solución a un entorno de producción, estando preparado para recibir datos reales y poder operar en ese contexto. Es importante que exista código de monitoreo para supervisar el desempeño del sistema implementado y poder lanzar alertas en caso de que algo no funcione bien.

Equipo ChileVive en Congresos de Trasplante

Luego de exitosas presentaciones en VI Congreso Chileno de Trasplante, el equipo de trasplante del Web Intelligence Centre, participa activamente del XXIV Congreso de Trasplante de Latinoamérica y Caribe en Montevideo, Uruguay.

Las últimas dos semanas, el equipo de trasplantes del WIC, ChileVive, ha ido de congreso en congreso.

Entre el 3 y el 6 de Septiembre, se realizó el XXIV Congreso de Trasplante Latinoamericano y del Caribe en Montevideo, Uruguay, al cual el equipo asistió provechosamente. En él, además de hacer numerosos vínculos internacionales con expertos y líderes en donación y trasplante y llamar la atención el ser los únicos ingenieros asistentes, se presentó el trabajo titulado “El reemplazo de inmunosupresores innovadores por equivalentes genéricos, a primera vista económicamente convenientes, se asocia a pérdidas económicamente importantes.” por Francisca González en la primera sesión de trabajos de Riñón.

Además, el pasado 23, 24 y 25 de Agosto, se realizó en Santiago el VI Congreso Chileno de Trasplante, el cual recibió y presentó 4 trabajos del Web Intelligence Centre. Uno de ellos, titulado “Competencias y capacidades de la Coordinadora Nacional de Procuramiento y Trasplante en la implementación de la ley 19,451. Resultados preliminares.”, presentado por Martín Canales, el segundo titulado “Estudio del proceso de pesquisa de posibles donantes de órganos en hospitales trasplantadores de la Región Metropolitana. Resultados preliminares.”, presentado por Francisca González, y dos de ellos fueron presentados por el Dr. Fernando González del Departamento de Medicina Oriente de la Universidad de Chile, con quien se trabaja conjuntamente, titulados “El reemplazo de inmunosupresores innovadores por equivalentes genéricos, a primera vista económicamente convenientes, se asocia a pérdidas económicamente importantes.” y “Licitaciones de inmunosupresores para trasplante: El ahorro nominal es sólo un espejismo y muy oneroso”.

Todos ellos tuvieron gran aceptación en la sociedad médica, y se destacó el que una ciencia como la ingeniería permeara el ámbito médico, junto a los numerosos beneficios que esto traerá. Además, el primer trabajo, de Martín Canales, fue nominado a mejor trabajo del congreso.

SONAMA en la WI’17 Leipzig

Desde el 23 hasta el 26 de Agosto tomará lugar la IEEE/WIC/ACM International Conference en Web Intelligence en Leipzig, Alemania. La serie de conferencias y el área de Web Intelligence (WI) tienen como objetivo lograr un balance entre los avances de la investigación en teorías y la metodología usualmente asociada con Collective Intelligence, Data Science, HumanCentric Computing, Knowledge Management, and Network Science. También están comprometidas en abordar investigación que profundice el entendimiento los fundamentos computacionales, lógicos, cognitivos, físicos, y sociales de la Web futura, y habilitar el desarrollo y aplicación de tecnologías basadas en Web Intelligence.

La investigación asociada al proyecto SONAMA, mediante su representante el profesor Juan Velásquez, formará parte del conjunto de documentos de investigación originales de alta calidad y aplicaciones del mundo real en todas las área teóricas y tecnológicas que conforman el campo de WI. El trabajo realizado calza perfectamente en dicho marco, pues utiliza datos de contenido de la Web (Twitter) y los procesa para generar información que apoya la toma de decisiones con respecto a la política nacional de drogas y alcohol en Chile. Dicha investigación no sólo será expuesta oralmente, si no que también formará parte de los artículos incluidos en los procedimientos publicados por la ACM Press.

 

 

Diagnóstico veloz de Infarto agudo al miocardio

Según la Organización Mundial de la Salud (OMS), la enfermedad cardiovascular (ECV) es la primera causa de mortalidad en el mundo. En el año 2012 llegó a 17,5 millones, aproximadamente 1 de cada 3 muertes. En Chile, el infarto agudo al miocardio (IAM) es la principal causa de muerte, con un total de 5895 fallecidos. En la década del 2000, se priorizó dentro de los objetivos de salud del país la muerte asociada a falla cardíaca. En particular, se propuso reducirla en un 30%. A pesar de haber conseguido una disminución significativa, el objetivo no se ha logrado.

La isquemia cardíaca (diminución del flujo de sangre al corazón) suele manifestarse con signos clínicos repentinos, en el llamado Síndrome Coronario Agudo (SCA), y también puede ocurrir un estado de isquemia cardíaca crónica o silente. En el último caso, los pacientes tienen un elevado riesgo de experimentar una muerte súbita o un IAM, lo que hace que la detección precoz sea muy importante.

Frente a la sospecha de un IAM es fundamental confirmar el diagnóstico lo antes posible, ya que el daño progresa muy rápidamente. La necrosis en el miocardio se inicia a los 20 a 30 minutos del infarto, llegando a comprometer el 75% de la pared del miocardio a las 3 horas y completándola a las 6. Es por esto que confirmar rápidamente el diagnóstico es determinante para salvar la mayor cantidad de miocardio viable. El “gold standard” para el diagnóstico de IAM es el análisis del contenido plasmático de Troponina y Creatina-quinasa. La elevación de estas proteínas indica que se ha producido un IAM, y el declive de estas que ha terminado. Estos marcadores son liberados durante la destrucción de las células del miocardio, y no se elevan ante de 3 a 4 horas de iniciado el infarto. Esto significa que para el momento que es confirmado el IAM, gran parte del tejido ya ha sido comprometido.

Un grupo de científicos de la Universidad de los Andes, liderado por el Dr. Carlos Irarrázabal, ha estudiado un tipo de microvesículas extracelulares (MVECs) llamadas exosomas. Con los estudios realizados se tiene evidencia de que este tipos de MVECs aumenta significativamente en pacientes con SCA, como se ve en la siguiente figura:

 

En particular, la concentración de exosomas a 0-2 hrs post ingreso a urgencia fue 7,2 veces superior en pacientes con SCA vs la de los controles, mientras los niveles de troponina no mostraron cambios. Luego, a las 10-14 hrs del ingreso, la concentración de las MVECs disminuyó significativamente, mientras la concentración de troponina fue invariable, demostrando que los exosomas se liberan antes al plasma que la troponina, como se ve en la figura a continuación:

Esto permitiría contar con una prueba que entregue resultados más rápidos para confirmar el diagnostico de IAM, mejorando el desenlace de un paciente. Más aún, se tiene la hipótesis de que los exosomas son liberados al plasma cuando la célula es expuesta al daño, pero antes de que se produzca la necrosis celular. Si esta hipótesis se cumple, se podría contar con un indicador que permita detectar la isquemia cardíaca incluso antes de que el paciente se de cuenta de que tiene un problema.

En este contexto es que el WIC se une al proyecto, aplicando el conocimiento que se tiene de Data Science para analizar los datos obtenidos de los pacientes y controles, y poder desarrollar algoritmos que, idealmente, permitan crear una herramienta que pueda diagnosticar rápidamente un IAM. De esta manera se podrán salvar y mejorar la calidad de muchas vidas.

¡ Un nuevo Ingeniero Industrial ha egresado del WIC!

El 21 de Julio, el estudiante de Ingeniería Industrial Javier Tchimino defendió su tema de memoria: ” DISEÑO, DESARROLLO Y VALIDACIÓN DE UN MODULO FUNCIONAL PARA EL
ANÁLISIS Y MONITOREO A DISTANCIA DE FACTORES DE RIESGO EN PACIENTES CON ENFERMEDADES CARDIOVASCULARES”, obteniendo distinción ante una comisión integrada por ingenieros y el ex director del Instituto del Tórax, y médico Francisco Arancibia.

Felicitaciones y Exito en este nuevo comienzo Javier!

Te invitamos a conocer nuestros temas de memoria

El próximo miércoles 09 de agosto a las 12:00 realizaremos nuestra presentación semestral con los proyectos en los que estamos trabajando, y los temas de memoria que tendremos disponibles para este semestre. La presentación se realizará en la sala , ubicada en el tercer piso del edificio de Ingeniería Industrial, en Beaucheff 851, Santiago. La invitación se extiende también para aquellas personas que quieran realizar su práctica o trabajo dirigido con nosotros.

 

Para conocer más información con respecto a los temas que tenemos para ofrecerte, te invitamos a visitar el siguiente link. Si hay alguno que te interese, puedes consultar o postular enviando un correo con tu CV y un breve extracto de por qué te gustaría trabajar en él a postulaciones@wic.uchile.cl.

 

¡Te esperamos!