Libros, Capítulos y Monografías – Departamento de Ciencias de la Computación

URI permanente para esta colección

En esta colección están depositados los Libros, Capítulos y Monografías publicados por personal afiliado al Departamento de Ciencias de la Computación

Examinar

Envíos recientes

Mostrando 1 - 11 de 11
  • ÍtemAcceso Abierto
    Limpieza de datos
    (Feijóo, 2009) López Porrero, Beatriz Eugenia; Pérez Vázquez, Ramiro Alberto; Universidad Central "Marta Abreu" de Las Villas. Departamento de Ciencias de la Computación. Facultad de Matemática, Física y Computación
    Los sistemas de información abarcan importantes esferas y se caracterizan por el manejo de enormes cantidades de datos. La existencia de anomalías e impurezas en los mismos es un fenómeno que distorsiona los resultados que se obtienen de su interpretación y análisis. La limpieza de datos es el proceso mediante el cual se detectan y corrigen los errores, y su aplicación es válida tanto en bases de datos de uso operacional, como en aquellos conjuntos que sirven de fuentes a los almacenes de datos. El objetivo de esta monografía es establecer el estado del arte en esta área de trabajo y sistematizar el conocimiento sobre la actividad de la limpieza de datos, estudiar las definiciones, los métodos y las herramientas empleadas para llevarla a cabo, debido a que es una línea relativamente nueva y los conocimientos sobre ella están dispersos en los artículos científicos
  • ÍtemAcceso Abierto
    Sistema de Calidad Para la Producción de Software a la Medida
    (Feijóo, 2010) García Pérez, Ana María; Aragón González, Neida; Universidad Central "Marta Abreu" de Las Villas. Departamento de Ciencias de la Computación. Facultad de Matemática, Física y Computación
    Se presenta la descripción de los procesos de un sistema de calidad orientado a la producción de software a la medida, que se basa en la aplicación de los principios de la Norma ISO 9000:2005 y ha tomado las recomendaciones del modelo CMMI, el marco de trabajo RUP y sugiere para la representación de los modelos de negocio a la notación IDEF
  • ÍtemAcceso Abierto
    Aplicación de la técnica de análisis de conceptos formal en la determinación de problemas de calidad relacionados con el modelado de procesos de negocio
    (Feijóo, 2018) Moreno Montes de Oca, Isel; Reyes Hernández, Frank; García Mendosa, Juan Luis; Hernández Cárdenas, Lisbet; Rodríguez Morffi, Abel; Moreno Rodríguez, Rosendo; Universidad Central "Marta Abreu" de Las Villas. Facultad de Matemática , Física y Computacíon. Depatamento de Ciencias de la Computación; Ravelo Romero, Liset
  • ÍtemAcceso Abierto
    Métricas para evaluar la complejidad de los productos software
    (Feijóo, 2012) O’farrill Fernández, Lianny; García Pérez, Ana María; Universidad Central "Marta Abreu" de Las Villas. Departamento de Ciencias de la Computación
  • ÍtemAcceso Abierto
    Sistema de Calidad Para la Producción de Software a la Medida
    (Feijóo, 2010) García Pérez, Ana María; Aragón González, Neida; Universidad Central "Marta Abreu" de Las Villas. Departamento de Ciencias de la Computación. Facultad de Matemática, Física y Computación
    Se presenta la descripción de los procesos de un sistema de calidad orientado a la producción de software a la medida, que se basa en la aplicación de los principios de la Norma ISO 9000:2005 y ha tomado las recomendaciones del modelo CMMI, el marco de trabajo RUP y sugiere para la representación de los modelos de negocio a la notación IDEF
  • ÍtemAcceso Abierto
    Reglas de negocio: Clasificaciones, lenguajes e implementaciones
    (Feijóo, 2014) Boggiano Castillo, Martha Beatriz; Pérez Vázquez, Ramiro; González González, Luisa Manuela; Universidad Central "Marta Abreu" de Las Villas. Departamento de Ciencias de la Computación. Facultad de Matemática, Física y Computación
    Las reglas de negocio, sus clasificaciones, lenguajes y formas para expresarlas, así como las maneras de implementarlas constituyen temas de interés actual para el desarrollo de los Sistemas de Información (SI). Este interés está motivado por las bondades que propicia el tratamiento explícito de las reglas, como son la disminución del costo de programación y el aumento de la eficacia de dichos sistemas. Esta monografía presenta un estudio acerca de las reglas de negocio, a partir de conjuntos de categorías usados por diferentes autores en los que se observa que todos proponen categorías de reglas que involucran de una manera u otra a los datos del negocio, generalmente almacenados en bases de datos. Se muestran diferentes niveles de expresión para las reglas de negocio, así como formalismos y lenguajes utilizados. También se analizan distintas maneras de implementar las mismas, tanto por parte de los programadores, como por herramientas que las generan de forma automática. Se destacan aspectos sobre la implementación de reglas de negocio mediante recursos de bases de datos y finalmente, se tratan puntos de vista sobre elementos a tener en cuenta para la modificación consecuente de ellas
  • ÍtemAcceso Abierto
    Detección de tópicos
    (Feijóo, 2015) Torres López, Carmen; Arco García, Leticia; Universidad Central "Marta Abreu" de Las Villas. Departamento de Ciencias de la Computación. Facultad de Matemática, Física y Computación
    El acceso a los datos de forma efectiva y rápida es de gran importancia hoy en día; sin embargo, manejar eficientemente tales cantidades de datos constituye un desafío. Por ejemplo, resulta muy difícil que alguna persona posea el tiempo para leer toda la información disponible sobre un tema dado, por tal motivo, podría ser mucho más efectivo leer y buscar por temas específicos. De ahí que uno de los campos de investigación que ha tomado la iniciativa en el procesamiento de datos textuales es la Detección y Seguimiento de Tópicos (Topic Detection and Tracking; TDT); referido de forma general como “las técnicas automáticas para encontrar material relacionado tópicamente en flujos de datos” [1] o como “un tema importante cuando grandes volúmenes de datos son enviados continuamente al usuario” [2]. De esta forma, “un tópico es un conjunto coherente de términos relacionados semánticamente que expresan un único argumento” [3]. Para crear algoritmos en el contexto de TDT se propusieron cinco tareas, cada una es vista como un componente cuya solución ayuda a guiar el problema de organizar los documentos por tópicos [4] [5]. Las tareas consisten en la segmentación de historias (encontrar regiones homogéneas en el texto tópicamente); el seguimiento (encontrar historias adicionales sobre un tópico dado); la detección de la primera historia (reconocer el comienzo de un nuevo tópico en el flujo de historias); la detección de grupos (detectar y agrupar nuevos tópicos, es decir, agrupar todas las historias tal como llegan, basándose en los tópicos que ellas presentan) y la detección de enlaces de historias (decidir si dos historias seleccionadas aleatoriamente pertenecen al mismo tópico). La detección de tópicos inicialmente fue declarada como una tarea dependiente de la segmentación, debido a que la entrada de los algoritmos de detección estaba representada por segmentos [4]. Sin embargo, varias han sido las propuestas que utilizan como entrada el corpus textual sin segmentar, es decir, aplican técnicas que extraen los términos de los documentos, los agrupan y estos grupos representan los tópicos. De esta forma se define a la detección de tópicos como: “la tarea que automáticamente encuentra nuevos tópicos en datos textuales” [6], “el descubrimiento de rasgos de palabras y fragmentos correspondientes a un tópico en los datos textuales, considerando a un tópico como un tema específico” [2] o “el proceso de agrupar documentos con tópicos similares en el mismo grupo” [7]. La presente monografía brinda el resultado de una revisión de la literatura dispersa sobre los métodos propuestos para la tarea de detección de tópicos. La primera sección se divide en dos partes: la primera expone las distintas clasificaciones que caracterizan a los métodos de detección, y la segunda describe los métodos desde distintos enfoques, de acuerdo al mecanismo que emplean para obtener los tópicos y luego se presentan varios ejemplos. Para concluir, se declaran algunas consideraciones finales sobre los métodos descritos, reflejando sus ventajas y desventajas, así como elementos que sugieren cuándo aplicar uno u otro en dependencia del dominio de aplicación. Finalmente, se presentan los anexos que facilitan la comprensión de los métodos que aquí se exponen, así como las principales referencias consultadas sobre el tema
  • ÍtemAcceso Abierto
    Aplicación de directrices de calidad a modelos de procesos de negocio a través de archivos de salida con extensión bpmn y xpdl
    (Feijóo, 2019) Reyes Hernández, Frank; Hernández Cárdenas, Lisbet; Moreno Montes de Oca, Isel; Rodríguez Morffi, Abel; Moreno Rodríguez, Rosendo; Universidad Central "Marta Abreu" de Las Villas. Departamento de Ciencias de la Computación. Facultad de Matemática, Física y Computación
    En la actualidad, el modelado de procesos de negocio constituye una parte esencial de las organizaciones en la mejora de su eficiencia y efectividad operacionales. Una forma de incrementar la calidad de los modelos de procesos de negocio es a través de la aplicación de directrices prácticas de calidad. El objetivo de este trabajo consiste en la interpretación de archivos de salida con extensión .bpmn y .xpdl, con el objetivo de evaluar la complejidad de modelos de procesos de negocio BPMN. Dicha evaluación se lleva a cabo mediante la aplicación de medidas de calidad, con el fin de ofrecer directrices prácticas que faciliten la mejora de la calidad de dichos modelos. Los principales resultados obtenidos consisten en la interpretación de los archivos de salida .bpmn y .xpdl de las herramientas de modelado Bonita y Bizagi respectivamente; la formulación de una estructura interna de los archivos generados por dichas herramientas y el almacenamiento de la información de los modelos contenida en dichos archivos en la estructura de datos grafo
  • ÍtemAcceso Abierto
    Modelos de proximidad novedosos para el cribado virtual de conjuntos de datos quimioinformáticos
    (Feijóo, 2012) Rivera Borroto, Oscar Miguel; Hernández Díaz, Yoandy; García de la Vega, José Manuel; Grau Ábalo, Ricardo; Marrero Ponce, Yovani; Universidad Central "Marta Abreu" de Las Villas. Departamento de Ciencias de la Computación. Facultad de Matemática, Física y Computación
    La búsqueda de similitud es una prestación importante en los sistemas modernos de gestión de la información química para acceder a la rica información contenida en los enormes repositorios químicos modernos. Básicamente, dadas una representación molecular, una medida de similitud y un algoritmo de búsqueda, la salida de la técnica devuelve una lista ordenada de moléculas del conjunto de datos en orden decreciente de similitud con respecto a la molécula consulta especificada por el usuario. Como consecuencia, los investigadores han puesto su interés en la eficacia de las representaciones y medidas de similitud en estas tareas. Sin embargo, sus estudios se han enfocado predominantemente en representaciones binarias y las medidas de semejanza correspondientes, y poco se ha trabajado en otros tipos de descripción numérica. También se han aplicado técnicas del Aprendizaje Automático en la selección de rasgos, aunque no de forma consistente con el principio de vecindad. Estos precedentes junto a la necesidad de nuevos métodos apropiados para cada contexto químico, constituyen la motivación para este trabajo. El mismo comprende la implementación computacional en el ambiente Java de 21 modelos de proximidad, 9 de los cuales son novedosos en Quimioinformática, proceden del área de la Psicología y están basados en el concepto acuerdo relacional, y otros doce son medidas ya establecidas de la literatura especializada. Posteriormente, las nuevas medidas de similitud fueron comparadas y validadas en la “recuperación temprana” usando nueve conjuntos farmacológicos de la Química Medicinal de interés internacional, representados por descriptores numéricos, seleccionados por Aprendizaje Automático, y un algoritmo de búsqueda eficiente. Los resultados muestran que en tendencia promedia los nuevos modelos se comportan superiormente a los de referencia y que más de la mitad de los mismos se sitúan entre los diez modelos más potentes
  • ÍtemAcceso Abierto
    Minería de datos para series temporales
    (Feijóo, 2014) Gonzáles Castellanos, Mabel; Soto Valero, César; Universidad Central "Marta Abreu" de Las Villas. Departamento de Ciencias de la Computación. Facultad de Matemática, Física y Computación
  • ÍtemAcceso Abierto
    Calidad de datos
    (Editorial Feijóo, 2016) Díaz de La Paz, Lisandra; García Mendoza, Juan Luis; Andreu Álvarez, Yordan; López Porrero, Beatriz Eugenia; González González, Luisa Manuela; Rodríguez Morffi, Abel; Universidad Central "Marta Abreu" de Las Villas. Facultad Matemática, Física y Computación. Departamento de Ciencia de la Computación
    La tendencia actual adquirida por la mayoría de las empresas modernas de almacenar cantidades crecientes de información ha provocado que la gestión de la calidad de datos se convierta en un proceso sumamente importante. En el presente trabajo se exponen las principales definiciones del término calidad de datos y su ciclo de vida a través de la caracterización de las cuatro fases que componen la metodología para la gestión total de la calidad de datos: definir, medir, analizar y mejorar. Además, se analiza la correspondencia que existe entre las dimensiones y las métricas de la calidad de datos, así como del perfilado y la limpieza de datos con estas fases.
Los Libros, Capítulos y Monografías depositados en esta colección son Propiedad Patrimonial de la Universidad Central "Marta Abreu" de Las Villas, o la misma ha obtenido las autorizaciones requeridas para ejecutar el depósito de estos materiales en el Repositorio Digital.