WIC en la comunidad de Machine Learning

Machine Learning, o Aprendizaje de Máquina, va captando cada vez más adeptos en todo el mundo. Ya sea por que nos ha llevado a soluciones tecnológicas impresionantes o porque es la puerta a la Inteligencia Artificial tan difundida en el cine, lo cierto es que esta rama de estudio es esencial para los científicos de datos, la profesión más sexy de este siglo, según la Harvard Business Review. Como Facultad de Ciencias Físicas y Matemáticas de la Universidad de Chile nos hemos hecho parte de esta ola desde la teoría y la práctica, y rasgando los velos que separan los departamentos de esta institución se creó la Comunidad de Machine Learning el 2006, con destacada participación de alumnos y profesores de eléctrica, matemática y computación, pero sin cerrarle la puerta a industriales, mecánicos, astrónomos y todo el que quisiera sumarse a recibir y compartir el conocimiento y la experiencia que se obtienen al navegar en estas aguas.

El Web Intelligence Centre también acudió al llamado de esta iniciativa, y el lunes 15 de mayo de este año hizo su primera charla: “Una herramienta de análisis de Twitter”, presentando uno de sus emblemáticos proyectos, “OpinionZoom”. En ella se interactuó con los asistentes para reflexionar juntos distintos enfoques para responder a las búsquedas de información a partir de los datos de Twitter. Desde los JSON que entregan las API de la red social, se fueron mostrando durante la charla algoritmos y formas de descubrir sexo, edad, intereses e influencia de un usuario, y también la polaridad de sus tweets. También se expuso el trabajo de identificar si un tweet es reclamo o no para la industria de telecomunicaciones, junto con su clasificación automática en categorías predefinidas como internet, teléfono, televisión, facturas, página web, entre otras.

Agradecemos la audaz participación de la selecta audiencia. También le agradecemos la invitación a los organizadores, por confiar en nosotros y permitirnos enseñar nuestro trabajo de años. Esperamos seguir aprendiendo y colaborando con la comunidad de Machine Learning para ayudar a otros en este fructífero y desafiante camino que lleva a toda la humanidad a una vida mejor.

Prepárate para el DOCODE 3.0

Luego de meses de trabajo nos enorgullecemos en presentar la tercera versión del mejor detector de plagio de Chile, DOCODE 3.0. En esta versión, se encontrarán con una aplicación rediseñada por completo, con foco en la experiencia de usuario y mejorada en cuanto a sus algoritmos de detección de plagio y funcionamiento general. Utilizando nuestro servicio mejorado podrás:

  • Contrastar tus documentos contra todo lo que esté indexado por Google.
  • Crear un repositorio personal de archivos para poder contrastar algún documento contra ellos.
  • Revisar las fuentes de plagio de tus documentos, a través de un informe de plagio intuitivo.
  • Obtener un índice de plagio, el cual servirá para apoyar la toma de decisiones con respecto a la originalidad de los documentos.
  • Asegurarte de que tu contenido generado respete la autoría de las otras personas

Si aún no nos conoces, te invitamos a visitar nuestro sitio web. Si aún no has probado el servicio, entonces te invitamos a hacerlo de manera gratis en este enlace.

 

El nuevo DOCODE se encontrará disponible a partir de la próxima semana. Cualquier consulta que puedas tener, comunícate a contacto@docode.cl.

 

¡Te esperamos!

 

Evento MIT – Juan D. Velásquez, Director de Ingeniería 2030 y WIC, participará en un panel donde explicará cómo el Big Data se aplica en medicina preventiva.

Juan D. Velásquez, Director de Ingeniería 2030 de la U. de Chile, participará en un panel donde explicará cómo el Big Data puede ser una respuesta exitosa para una medicina preventiva.
“Estadísticas Estratégicas: Cambiando el Futuro de la Atención Médica” es la conferencia que abordará las múltiples maneras en las que la Big Data derivará en importantes avances médicosLeer más

Redes Neuronales Convolucionales en el Proyecto AKORI

La tarea de reconocimiento de imágenes es una de las primeras habilidades que aprendemos desde el momento en que nacemos y se hace natural a medida que avanzamos en edad. Sin la necesidad de pensarlo somos capaces de identificar el entorno en que estamos, al igual que los objetos que nos rodean. Traspasar esta habilidad de reconocer rápidamente parámetros, generalizar desde conocimiento anterior, y adaptarlo a diferentes contextos de imágenes es uno de los objetivos declarados en el área de inteligencia artificial en la última década.

Al escuchar por primera vez el término redes neuronales convolucionales (CNN, en sus siglas en inglés), probablemente se pensará en algo relacionado con la neurociencias o la biología, lo cual se acerca en cierta medida a la realidad. CNN tiene inspiración biológica en la corteza visual. Esta tiene una pequeña región de células que son sensibles a una región específica del campo de visión. Esta idea fue profundizada en un experimento de Hubel and Wiesel en 1962 donde mostraron que algunas neuronas individuales en el cerebro responden sólo bajo la presencia de bordes de cierta orientación. Por ejemplo, algunas neuronas se activan cuando son expuestas a bordes verticales y algunas a bordes horizontales o diagonales. Esta idea de un sistema con componentes especializados para distintas tareas es la base detrás de las redes neuronales convolucionales.

Cuando un computador ve una imagen, esta consiste en un arreglo de valores en cada pixel. Por ejemplo, una imagen cualquiera de resolución 480 x 480, representa un arreglo de 480 x 480 x 3. Cada uno de esos números tendrá un valor desde 0 a 255, el cual describe la intensidad del pixel en ese punto. Las CNN trabajan transformando en forma consecutiva pequeñas piezas de información y combinándolas en capas más profundas de la red. Lo anterior se traduce en que las partes o la totalidad del arreglo inicial será operado mediante un producto escalar y al resultado se aplicará una función de activación. Todo esto para simular el sistema de activación de neuronas. Esto se hará sucesivamente y combinará con otras operaciones para llegar un vector que permita clasificar a la imagen o transformarla a otra imagen nueva.

Específicamente, este tipo de modelos fueron utilizados para el servicio de atención visual del proyecto AKORI. El cual consiste en tomar una imagen y transformarla una imagen nueva que muestra dónde el usuario promedio enfocará su atención. Un ejemplo del servicio son las dos imágenes mostradas a continuación. Estas representan la imagen de entrada y de salida, respectivamente.

Leer más

¡ Nueva adjudicación del WIC: Proyecto SONAMA!

La Plataforma informática de análisis de redes sociales para estudiar la prevalencia de la marihuana y alcohol en Chile: Una aplicación de data mining en la generación de alertas tempranas en prevención de adicciones (SONAMA); se adjudicó mediante el programa FONDEF $149.880.000 para la ejecución del proyecto cuya duración es de 24 meses. Leer más

¡DOCODE estrena nuevo servicio!

Durante los últimos meses se ha prototipado y finalizado un nuevo servicio para el software de detección DOCODE, el cual amplía sus posibilidades. Ahora, el contraste de los documentos para encontrar su nivel de plagio no sólo se realizará contra la webLeer más

Scrum: metodología ágil al servicio de los adultos mayores en proyecto Delirium

La unión entre ingeniería y medicina ya está declarada. De un simple romance que comprendía un puñado de proyectos, se está formando una promisoria relación que sueña con un centro de ingeniería en salud en Laguna Carén, en una red que aúne médicos e ingenieros a lo largo del territorio y proyectos transcontinentales que rompan con todas las barreras que limiten el crecimiento científico nacional.Leer más