Medición de la dimensión completitud en la base de datos Marc de ABCD

dc.contributor.advisorDíaz de La Paz, Lisandra
dc.contributor.advisorGarcía Mendoza, Juan Luis
dc.contributor.authorLeón Hernández, Dariel
dc.coverage.spatialSanta Claraen_US
dc.date.accessioned2018-03-12T19:27:00Z
dc.date.available2018-03-12T19:27:00Z
dc.date.issued2015-06-26
dc.description.abstractEn la actualidad ha tomado auge el desarrollo de tecnologías para gestionar big data. Estas constituyen un punto esencial en la extracción, almacenamiento, limpieza y análisis de la misma. En las bibliotecas de la Universidad Central “Marta Abreu” de Las Villas (UCLV) se cuenta con un sistema para la administración de registros bibliográficos. Hasta el momento, los datos con los que se cuentan poseen disímiles errores y la no presencia de un software de perfilado de datos dificultaba la medición de su calidad. Por tanto, el presente trabajo de diploma tiene como objetivo implementar trabajos con el modelo de programación MapReduce para medir la dimensión completitud. Además, se crea una herramienta que permite la interacción entre la base de datos utilizada y la fuente de datos. Para lograr estos objetivos se utiliza el marco de trabajo Hadoop para ejecutar los trabajos MapReduce, es decir, para realizar el procesamiento de los datos y la base de datos distribuida MongoDB para su almacenamiento.en_US
dc.description.abstractToday the development of technologies has boomed to arrange big data. These constitute an essential point in extraction, storing, cleaning and analysis of them. At the Central University “Marta Abreu” de Las Villas libraries, there is a system in order to administer bibliographic records. So far, the data that are available, have dissimilar mistakes and not having a software to profile data make difficult the measurement of quality. Thus, this paper has an objective to implement jobs with the MapReduce programming model to measure the completeness dimension. Beside it is created a tool that allows interactions between the used database and the data source. In order to achieve these objectives a framework named Hadoop is used to implement MapReduce jobs, that is, to carry out the processing of data and MongoDB distributed database for its storage.en_US
dc.description.sponsorshipFacultad de Matemática, Física y Computación. Departamento de Ciencias de la Computaciónen_US
dc.description.statusnon-publisheden_US
dc.identifier.urihttps://dspace.uclv.edu.cu/handle/123456789/8891
dc.language.isoesen_US
dc.publisherUniversidad Central “Marta Abreu” de Las Villasen_US
dc.rightsEste documento es Propiedad Patrimonial de la Universidad Central “Marta Abreu” de Las Villas. Los usuarios podrán hacer uso de esta obra bajo la siguiente licencia: Creative Commons: Atribución-No Comercial-Compartir Igual 4.0 Licenseen_US
dc.subjectBig Dataen_US
dc.subjectDimensión Completituden_US
dc.subjectHadoopen_US
dc.subjectMongoDBen_US
dc.subjectCompleteness Dimensionen_US
dc.subject.otherBig Dataen_US
dc.subject.otherCalidad de Datosen_US
dc.subject.otherModelo de Programaciónen_US
dc.subject.otherProcesamiento de Datosen_US
dc.subject.otherBase de Datos Distribuidasen_US
dc.subject.otherComputación Paralelaen_US
dc.titleMedición de la dimensión completitud en la base de datos Marc de ABCDen_US
dc.typeThesisen_US
dc.type.thesisbacheloren_US

Archivos

Bloque original
Mostrando 1 - 1 de 1
Cargando...
Miniatura
Nombre:
Tesis Dariel Leon Hernandez.pdf
Tamaño:
2.67 MB
Formato:
Adobe Portable Document Format
Bloque de licencias
Mostrando 1 - 1 de 1
No hay miniatura disponible
Nombre:
license.txt
Tamaño:
3.33 KB
Formato:
Item-specific license agreed upon to submission
Descripción: