Examinando por Tema "Procesamiento de datos"
Resultados por página
Opciones de clasificación
-
DocumentoAnálisis Big Data de los patrones de movilidad a partir de registros de llamada(Pereira : Universidad Tecnológica de Pereira, 2017) Vargas Rojo, Cristian Stiven ; López Echeverry, Ana María de las MercedesEn la actualidad los requerimientos de movilidad han generado problemas sociales y culturales, en los que se han visto afectadas las personas y las entidades de transporte. Por lo tanto, no se están llevando a cabo soluciones adecuadas para mejorar la movilidad, como una posible solución a esta problemática se tiene la información que se puede extraer de los registros de llamadas de los teléfonos celulares. Hoy en día se están creando grandes volúmenes de datos con estos registros, es un nuevo insumo que no solo puede generar un valor económico sino también bien social. Las entidades prestadoras de servicio y las instituciones de control no cuentan con herramientas que les ayuden a subsanar los problemas de movilidad, por lo cual se pretende realizar una guía que permita llevar a cabo un análisis de big data con el propósito de obtener los patrones de movilidad a partir de los registros de llamadas de un proveedor de servicios de telecomunicaciones celular.
-
DocumentoAnálisis de los registros efectivos de la empresa Wif ID empleando ciencia de datos(Pereira : Universidad Tecnológica de Pereira, 2019) Castaño García, Roberth ; López, Carlos AndrésEl presente proyecto, describe el proceso de análisis de datos aplicado a los registros efectivos contenidos en la base de datos del establecimiento <> perteneciente a la empresa Wif ID. El proceso involucra la obtención, validación, limpieza y el análisis de los usuarios y los dispositivos conectados a la red WiFi. También se muestra el proceso de extracción, limpieza, transformación en instalación tal y como lo plantea la metodología conocida como E.T.L. Para transformar, visualizar y analizar los datos se muestra como se puede usar Pandas como biblioteca de análisis estadístico y iPython como infraestructura de computación interactiva. En última instancia, se muestran los resultados de los análisis obtenidos sobre los días de la semana y las horas en los que es más probable que ocurra un registro efectivo.
-
DocumentoArquitectura LIMS (Laboratory Information Management System) para gestionar el uso de recursos y espacios pertinentes al Grupo de Investigación Sirius de la Universidad Tecnológica de Pereira.(Pereira : Universidad Tecnológica de Pereira, 2020) González Montoya, Laura Sophia ; Sánchez Ocampo, Jorge Luis ; Barrios Valencia, Ramiro AndrésEste proyecto tiene como objetivo el desarrollo de un Sistema de Gestión de Información para el grupo de investigación SIRIUS de la Universidad Tecnológica de Pereira, con el fin de dar solución a la problemática sobre procesos críticos como préstamo o reserva de espacios y recursos, para esto se plantea, un software basado en la arquitectura LIMS para laboratorios cuyo propósito es el de gestionar y administrar de manera óptima los espacios y sus recursos dentro del grupo de investigación...
-
DocumentoCátedra abierta al servicio de la comunidad, dos miradas interdisciplinares(Universidad Tecnológica de Pereira, 2022) Mejia Hernandez , Juan Camilo ; Hernández Arias, Diego FernandoLa Universidad Tecnológica de Pereira a través de la Vicerrectoría de Investigaciones, Innovación y Extensión tiene como propósito “Definir y direccionar los lineamientos para la investigación institucional que fortalezcan los grupos y semilleros de investigación, a través de la formación de investigadores, el desarrollo de programas o proyectos de ciencia, tecnología e innovación, así como la generación de redes y alianzas estratégicas que contribuyan a la creación y apropiación del conocimiento para la sociedad.” Y es por ello que, anualmente, entre otras se realiza la CONVOCATORIA PARA FOMENTAR LA PUBLICACIÓN DE CAPÍTULOS DE LIBRO RESULTADO DE INVESTIGACIÓN CATEDRÁTICOS AÑO 2022, en la cual pueden postular los resultados de los proyectos de investigación finalizados en los últimos cinco años. En esta oportunidad, se publicarán dos capítulos de las Facultades: Ciencias de la Educación y de Ingeniería Mecánica en los cuales se darán a conocer dos tesis de Maestría. Para la Vicerrectoría de Investigaciones, Innovación y Extensión es de suma importancia socializar por medio de este libro por capítulos el conocimiento, teniendo en cuenta que este debe transferirse a través de diferentes medios, puesto que no solo fortalece la academia sino también a la sociedad en general.
-
DocumentoDesarrollo de una plataforma de software para la estimación de vida remanente en activos de mantenimiento(Pereira : Universidad Tecnológica de Pereira, 2016) Ospina Bedoya, Juan Esteban ; Holguín Londoño, MauricioDesde hace cerca de dos décadas, las empresas de diversos sectores de la economía, han implementado diferentes tipos de estrategias que permitieran administrar de forma optima, todo el ciclo de vida de activos tangibles e intangibles de sus empresas, los beneficios fueron tales que en el año 2002 fue conformada lo que ser a la primera norma referente a gestión de activos, llamada BSI PAS 55 Asset Management. Para el a~no 2014, la Organización Internacional de Estandarización o ISO (por sus siglas en inglés), aceptó la PAS 55 como la norma básica de gestión de activos y apoyada en ella, creo el estándar ISO 55000. Mientras que la PAS 55 se centró principalmente en los activos físicos, la ISO 55000 se enfocó en los objetivos organizacionales que permitieran la optimización de los procesos en la industria. La gestión de activos se hizo una herramienta importante en las empresas debido a que permite administrar todo el ciclo de vida de los activos físicos de una organización con el fin de maximizar su valor. Esta permite administrar diferentes etapas del ciclo de vida como la ingeniería, operación, mantenimiento, disposición final de los activos, etc. Es por esto que la gestión de activos fue implementada en los procesos de mantenimiento de las organizaciones, esta brinda herramientas que permiten hacer análisis de gestión de riesgo, ciclo de vida, costos y desempeño de forma optima, elementos que también hacen parte de la gestión del mantenimiento.
-
DocumentoDiseño de un controlador resonante tipo PIR para la reducción de corrientes circulantes en un terminal HVDC-MMC(Pereira : Universidad Tecnológica de Pereira, 2018) Buitrago Herrera, Julián Camilo ; Escobar Mejía, AndrésEl aumento en la demanda energética ha sido impulsado por el crecimiento de la población mundial, causando el aumento en el número de plantas generadoras de energía eléctrica, tales como hidráulicas, y de combustibles fósiles. La amplia utilización de estos combustibles fósiles como materia prima en las plantas térmicas, ha contribuido a la generación de gases de efecto invernadero. Debido a las consecuencias negativas que estos tienen sobre el ambiente y las personas, se ha incentivado dentro de la investigación al desarrollo e implementación de fuentes de energía renovables. La generación global de energía eléctrica a través de fuentes renovables cuenta actualmente con una capacidad instalada de 2.786.637 MW [1], destacándose la generación eólica con 466.505 MW [1]. Las granjas eólicas se encuentran ubicadas generalmente a largas distancias de los centros de consumo en zonas costeras (on-shore) y mar adentro (off-shore). Sin embargo, las amplias distancias generan altos efectos inductivos y capacitivos en los sistemas de transmisión tradicionales HVAC, lo cual causa problemas de inestabilidad y la necesidad de instalar compensación reactiva. Una solución implementada desde mediados del siglo pasado es la utilización de terminales High-Voltage Direct-Current (HVDC). Desde su aparición han mostrado diversas topologías, la más madura de ellas se denomina Line Commutated Converter (LCC), la cual emplea tiristores como dispositivos semiconductores [2]. Posteriormente apareció el terminal Voltaje Source Converter (VSC) basado en Gate Turn-off Thyristors (GTO) [3], y más tarde con Insulated Gate Bipolar Transistor (IGBT) que es utilizado en la topología Modular Multilevel Converter (MMC) [4]…
-
DocumentoDiseño de un sistema de adquisición de datos para compresores de gas natural vehicular(Pereira : Universidad Tecnológica de Pereira, 2015) Bedoya Hoyos, Jorge Iván ; Tovar Zamudio, Jeyson Andrey ; Valencia Giraldo, Harold ; Cortés Osorio, Jimmy AlexanderLos sistemas de monitoreo remoto, permiten la adquisición y supervisión de las variables a tratar con el fin de predecir posibles fallas, alertar anomalías en un sistema y llevar un registro de los valores adquiridos por los sensores para futuras toma de decisiones. Por medio del presente proyecto se pretende diseñar un sistema de monitoreo remoto, que acorte los tiempos de mantenimiento de los equipos de gas vehicular, así como los tiempos de parada de dispositivos, ya que si se puede verificar el estado del compresor y surtidores de forma remota, se puede obtener un mejor diagnóstico en tiempo real de cada una de las señales que intervienen en el mismo, es decir, si el equipo se alarma, no es necesario esperar hasta la llegada del técnico para la intervención, sino que el técnico puede inmediatamente determinar lo que sucedió y si es necesario atender el reporte, o simplemente brindar una asesoría por cualquier medio de comunicación de tal forma que el suministro de gas no se vea afectado por mucho tiempo.
-
DocumentoDiseño y montaje de un sistema automatizado de adquisición, envío y verificación de datos empleando Raspberry Pi(Pereira : Universidad Tecnológica de Pereira, 2017) Marín Cardona, Erisbey ; Sáenz Taborda, Luis Miguel ; Echeverry Correa, Julian DavidEn la búsqueda de sistemas alternativos de adquisición y gestión de datos, se plantea la creación de los mismos. Estos sistemas en creación, deben tener la capacidad de realización de sus tareas de manera óptima y hacer uso de herramientas que faciliten su construcción. El presente trabajo describe el procedimiento llevado a cabo en la creación de un sistema de adquisición y administrador de datos, de bajo costo y fácil implementación. Logrando con esto un sistema relativamente económico a lo que el mercado respecta, y lo suficientemente potente para suplir las necesidades de distintas aplicaciones donde sea implementado...
-
DocumentoDiseño, desarrollo e implementación de un aplicativo para el procesamiento de información capturada a partir del reconocimiento de marcas de evaluaciones desarrollado para la preparación de las pruebas Saber PRO del programa de Ingeniería de Sistemas y Computación de la UTP(Pereira : Universidad Tecnológica de Pereira, 2013) Restrepo Tangarife, Brian Yeicol ; Beltrán Mazo, Elkin DarioCon el análisis, diseño e implementación de una aplicación Web amigable con el usuario, se podrá agilizar el procesamiento de los datos obtenidos en los simulacros, permitiendo la calificación individual, grupal, por temáticas y componentes. Adicionalmente, proporcionará informes para la toma de decisiones institucionales apoyados en modelos estadísticos. Si se cuenta rápidamente con el análisis de resultados entonces se tendrá una mejor base para la preparación de los estudiantes, puesto que se podrá observar las áreas y componentes en donde se presentan mayores falencias y brindar un mejor acompañamiento para superar estas deficiencias y así obtener un mejor desempeño en la Prueba Saber Pro. Otra de las ventajas del desarrollo de este proyecto es que se brinda a los estudiantes la posibilidad de revisar sus resultados individuales a través de la aplicación, tal y como ocurre en la prueba real. de esta manera el estudiante puede tener una perspectiva de cuál es su situación. Por otro lado el encargado de la preparación de los estudiantes podrá generar una mayor variedad de formularios en menor tiempo facilitando la gestión para el desarrollo de los simulacros.
-
DocumentoEstado del arte sobre Frameworks de infraestructura para Big Data(Pereira : Universidad Tecnológica de Pereira, 2016) Osorio Morales, Jose Daniel ; Zuleta Uribe, Carlos Eduardo ; López Echeverry, Ana María de las MercedesEn la actualidad, el análisis Big Data se ha convertido en un gran reto para las organizaciones educativas, gubernamentales y comerciales, esto debido a la gran cantidad de datos procesados, por lo tanto resulta muy difícil llevar a cabo los diferentes procesos de análisis con herramientas de bases de datos y analíticas convencionales. Las tendencias Big Data traen consigo una gran cantidad de herramientas y aplicaciones que han sido desarrolladas específicamente para el apoyo al crecimiento de dicha tecnología para el análisis de datos, algunas de éstas trabajan en conjunto en soluciones de arquitecturas ya implementadas en las que se fundamenta gran parte de este trabajo monográfico, sintetizando la información necesaria para generar una propuesta de una arquitectura Big Data. Este trabajo pretende mostrar los componentes necesarios de infraestructura para brindar soporte al análisis Big Data basados en soluciones implementadas por los proveedores más conocidos, tomando como referencia modelos, diagramas y herramientas de software, enfocadas a los distintos despliegues que se puedan generar con base a unos requerimientos específicos, obteniendo como resultado una solución para una arquitectura Big Data utilizando las características de los escenarios propuestos en este trabajo.
-
DocumentoGPGPU, un cambio de paradigma para el diseño de programas de alto rendimiento en la Universidad Tecnológica de Pereira y sus áreas de influencia(Pereira : Universidad Tecnológica de Pereira, 2013) Valencia Suárez, FabioUna de las formas de calcular el número pi (π) es con el siguiente algoritmo: * Dibujar un círculo dentro de un cuadrado de tamaño 1. * Generar puntos aleatorios dentro del cuadrado. * determinar el número de puntos que están dentro del círculo. * La variable r será igual al número de puntos en el círculo dividido por el número total de puntos. * El número Pi será aproximadamente igual a cuatro multiplicado por r (4 * r). Este algoritmo tiene una característica especial y es un gran número de cálculos que pueden ser ejecutados por partes en el mismo instante de tiempo y finalmente reunir los resultados parciales y obtener el resultado final. Este algoritmo se puede clasificar como un algoritmo paralelo. Al igual que este, muchos otros problemas como por ejemplo el cifrado de datos (Encryption), el cual se puede realizar por sustitución (cambiar unas letras por otras) o por transposición (cambiar el orden de las letras en una palabra), las consultas a bases de datos, los algoritmos de búsquedas de coincidencias y el alineamiento de secuencias en bioinformática, entre otros, se pueden solucionar más rápidamente a través de cálculos en paralelo que realizando operaciones en forma secuencial. En la actualidad existen sistemas que permiten utilizar muchas unidades de proceso de forma concurrente y aumentar la velocidad (cálculos por segundo), como por ejemplo los supercomputadores, pero estas son soluciones que tienen un alto costo comercial, además de necesitar software especializado, constante mantenimiento y manejo de personal calificado, siendo una opción no muy deseable para el sector comercial, educativo y científico. En búsqueda de una solución a ambos inconvenientes (Velocidad vs. Precio) se encontró que las unidades de procesamiento gráfico (Tarjetas Gráficas) actuales cumplían con este requisito (Múltiples unidades de proceso independientes) con un costo muy bajo en comparación con sistemas de alto desempeño, y se encontró en ellas una solución que permitía aumentar el rendimiento de la programación paralela en un sistema de cómputo actual, sin que esto significara una inversión demasiado alta y así es como nació la Programación de propósito General en Unidades de Procesamiento Gráfico o GPGPU.
-
DocumentoMetodología de clasificación de datos desbalanceados basado en métodos de submuestreo(Pereira : Universidad Tecnológica de Pereira, 2019) Hoyos Osorio, Jhoan Keider ; Daza Santacoloma, GenaroEn este trabajo se presenta la construcción metodológica para la clasificación de datos desbalanceados, a partir del análisis comparativo entre técnicas de submuestreo, y tiene como aporte fundamental el desarrollo de una nueva estrategia de submuestreo y la clara identificación de las condiciones de aplicación de cada una de las técnicas. En particular, se consideran las técnicas de submuestreo basado en agrupamiento, un nuevo método de submuestreo basado en teoría de la información y una adaptación de los métodos propuesto para desarrollar un ensamble de clasificadores. Las pruebas de desempeño se orientan a la precisión del sistema en la etapa de clasificación y a la capacidad de cada método para seleccionar las muestras más representativas. Se realizan pruebas sobre 44 bases de datos desbalanceadas de pequeña escala del repositorio de datos KEEL, y tres bases de datos de gran escala orientas a la predicción de cáncer de mama y de homología de proteínas y la detección automática de displasias corticales. Los resultados obtenidos reflejan que el submuestreo basado en teoría de la información es el método de submuestreo que mejor preserva la estructura de la clase mayoritaria, reduciendo la pérdida de información en el proceso de eliminación de muestras. Además, este método presenta una mejora sustancial cuando es adaptado para generar la combinación de diferentes clasificadores aumentando notablemente la capacidad del sistema para generalizar el comportamiento de ambas clases lo cual se puede evidenciar en los resultados de clasificación.
-
DocumentoModelo para la identificación de estudiantes en riesgo de deserción escolar Estudio de caso: Institución educativa Sur Oriental (Pereira)(Universidad Tecnológica de Pereira, 2021) Londoño Pinilla, Héctor Fabio ; Meneses Escobar, Carlos AugustoEste proyecto tiene como finalidad la construcción de un modelo para la mitigación del riesgo de deserción escolar en la Institución Educativa Sur Oriental de Pereira, mediante el uso de sistemas de recomendación. Tener herramientas que permitan ayudar a identificar y establecer alertas tempranas para evitar el abandono escolar en las instituciones educativas, es fundamental para disminuir la cantidad de niños, niñas, jóvenes y adolescentes que dejan de asistir a las aulas de clase en diario vivir de nuestra sociedad. Para llegar al modelo deseado se realizó una búsqueda exhaustiva sobre las principales causas o factores que influyen en la deserción escolar, también se analizaron los diferentes tipos de sistemas de recomendación, para determinar cuál se adaptaba mejor a las necesidades planteadas en el estudio.
-
DocumentoModelos matemáticos para la programación óptima de rutas: formulación e implementación(Universidad Tecnológica de Pereira, 2022) Granada Echeverri, Mauricio ; Cubides Rivera, Luis Carlos ; Bolaños , Rubén Iván ; Universidad Tecnológica de Pereira Vicerrectoría de Investigaciones, Innovación y Extensión Editorial Universidad Tecnológica de Pereira Pereira, ColombiaEl problema de programación de rutas en una empresa de transporte generalmente considera varios escenarios de distribución de bienes los cuales, a su vez, constituyen diferentes grados de complejidad en su programación. Un escenario común consiste en establecer la ruta más corta para la distribución de un conjunto de productos a través de un único vehículo. Sin embargo, existen escenarios mucho más complejos de modelar, en donde se consideran varios vehículos partiendo desde diferentes puntos a fin de distribuir los bienes a un conjunto amplio de clientes, ventanas de tiempo, entrega y recogida simultánea y entrega primero y recogida al regreso. En este libro se presenta un conjunto de problemáticas propias de la programación óptima de rutas, cuyos modelos han sido estudiados, definidos, propuestos y evaluados en el desarrollo del proyecto titulado: Herramienta computacional para la programación óptima de rutas en una empresa de transporte de carga, considerando diferentes estrategias de distribución de productos con código 6-19-5, realizado con el apoyo de la universidad Tecnológica de Pereira y su vicerrectoría de Investigaciones, Innovación y Extensión. Estos modelos son concatenados de forma pedagógica y gradual, con el objetivo de transitar fácilmente desde el modelo simple del TSP hasta el OLRP, pasando por el MTSP, CVRP y MCVRP. El aspecto pedagógico consiste en que la presentación de los problemas debe permitir apreciar el crecimiento gradual del modelo clásico del TSP, a través de restricciones, parámetros y variables adicionales, así como modificaciones a la función objetivo, hasta convertirse en los problemas subsecuentes. De esta forma, un estudiante de maestría, doctorado, o en general cualquier lector interesado, podría experimentar con la inclusión y exclusión de restricciones en el modelo para visualizar el impacto sobre los resultados obtenidos.
-
DocumentoPARCE (Procesos Académicos para la Retención en la Comunidad Estudiantil)(Universidad Tecnológica de Pereira, 2022) Vélez Ospina, Luis Alfonso ; Mosquera Martínez, Yeison Fernando ; Veloza Mora, Juan de JesúsEn la primera etapa se crea un documento donde se recopila el proceso de registro que deben hacer los estudiantes de primer semestre de la facultad de ingeniería del programa de ingeniería de sistemas y computación para poder dar uso al prototipo. En la segunda etapa se tomó provecho de la reunión de bienvenida a los estudiantes que hace la Universidad Tecnológica de Pereira(UTP), en la reunión se solicitó junto al director del presente proyecto “PARCE” el profesor JUAN DE JESUS VELOZA MORA un espacio para explicarle a los estudiantes que ingresan a la UTP, sobre el proyecto y como poder registrarse y participar del plan piloto para el uso del prototipo web https://vamos1a.com/. Se explica la metodología a usar durante el semestre y se comparte el documento con las indicaciones para el registro y uso del prototipo web. La tercera etapa es el acompañamiento y registro de los estudiantes de primer semestre en el prototipo web, acompañamiento realizado a través de la plataforma de mensajería TELEGRAM, donde podemos interactuar con los estudiantes y saber si pudieron realizar su registro en el prototipo web y si han podido hacer uso de las funcionalidades del mismo. La cuarta etapa contempla dos tipos de actividades: 1. Las actividades realizadas a través del prototipo web por los estudiantes, actividades publicadas en los recomendados de cada semana. 2. Las actividades realizadas de forma presencial, permitiendo la interacción de los estudiantes con el aprendizaje de habilidades blandas e incrementar a través de actividades deportivas su formación.
-
DocumentoPrototipo de sistema para manejo de información referente a la campaña electoral de un candidato político(Pereira : Universidad Tecnológica de Pereira, 2013) Cutiva Oyola, José YesidSe toma como caso de estudio la forma que manejada la información un candidato político a elecciones populares dentro de su campaña, los procesos que son llevados tradicionalmente de forma manual, con muy poca seguridad y respaldo en momentos donde es de vital importancia tener la información certera y oportuna en su camino de conquista, en este caso se hace referencia a la candidata al Consejo Municipal Nora Oyola. A lo largo de este trabajo se explicaran los aspectos básicos teóricos en los cuales se fundamenta el desarrollo de un prototipo de sistema para el manejo de información propuesto para intentar solucionar la problemática actual que vive la candidata política. Posteriormente se detallan paso a paso todas las etapas del ciclo de vida del proyecto de software propuesto, desde el análisis de los requerimientos, su traducción a diagramas UML que permiten identificar y modelar fácilmente los procesos principales que intervienen en la atención al cliente y por último la codificación y desarrollo del prototipo que intentara dar solución al problema planteado en el trabajo.
-
DocumentoReconstrucción de computador analógico de laboratorio de sistemas dinámicos y control de la Universidad Tecnológica de Pereira(Pereira : Universidad Tecnológica de Pereira, 2020) Cardona Marín, Camilo ; Forero Rivera, Douglas Alberto ; Montilla Montaña, Carlos AlbertoEn el Laboratorio de Sistemas Dinámicos y Control de la Universidad Tecnológica de Pereira, se contaba con un computador analógico mecánico no apto para el uso ya que presentaba elementos faltantes y averiados. Este dispositivo fue construido por los estudiantes de Ingeniería Mecánica Fernando Hoyos Gutiérrez y León Duque Orrego en el año de 1976. El computador se usó durante aproximadamente 10 años, momento en el cual presentó diferentes averías y no fue rehabilitado...
-
DocumentoValidación del nuevo paradigma de redes de datos definidas por Software (SDN), en la aplicación para la migración de redes de datos tipo Carrier Grade del modelo convencional - Redes MetroEthernet, virtualización de tablas de enrutamiento (MPLS) y enrutamiento basado en políticas (BGP)(Pereira : Universidad Tecnológica de Pereira, 2017) Ramírez Giraldo, Miller ; López Echeverry, Ana María de las MercedesEl proyecto busca validar el nuevo paradigma SDN (Software Defined Networking) para determinar si es posible o no y bajo qué condiciones trasladar una red convencional tipo core de operador de servicios a este nuevo modelo, accediendo a los beneficios de todas las ventajas teóricas propuestas. El concepto de Software Defined Networking ha sido propuesto y desarrollado desde los años 90' pero en sus fases iniciales experimentó un rechazo por parte de los principales fabricantes de dispositivos y equipos de telecomunicaciones, ya que implicaba contar simplemente con un hardware genérico y realizar actualizaciones a través de un upgrade en el software, y así soportar nuevas tecnologías (aspecto que podrá afectar directamente el volumen de ventas para los fabricantes). En los últimos años el concepto ha presentado una buena adopción y aceptación por parte de estos fabricantes y empresas líderes en el sector de las TICs (Cisco Systems, Juniper Networks, Huawei, Alcatel, Intel, IBM, Oracle, Ericsson, Telefónica, Fujitsu, Tilera, Xilinx, etc), al observar que las ventajas y flexibilidad que ofrece este nuevo modelo realmente no pueden ser ofrecidas y soportadas por el paradigma convencional. El proyecto consiste en la implementación de varias pruebas de laboratorio comprobando inicialmente si el modelo ofrece la capacidad de virtualizar e independizar los recursos de la red (switches, puertos, enlaces e información de conmutación). En una segunda implementación se busca determinar si es posible ejecutar una red core SDN bajo el protocolo BGP coexistiendo con nodos que ejecutan el mismo protocolo pero en el modelo convencional. En la tercera etapa se busca comprobar si SDN permite realizar o construir túneles de capa 2 mediante etiquetas vacías, de VLAN o de MPLS para aprovisionamiento de clientes corporativos independientes sobre una sola red core. En la etapa final se busca comprobar si el modelo ofrece la posibilidad de programar libremente los flujos de datos de la red, tomando como información de entrada todas las cabeceras del paquete y decidiendo libremente la acción a aplicar sobre él (eliminarlo, conmutarlo a través de un puerto específico o enviarlo al controlador). Se obtienen resultados positivos y negativos para la virtualización de redes y programación de flujos de datos. Por otro lado se obtienen pruebas exitosas para la implementación de BGP y VPLS (con todos los tipos de etiquetas) en la red núcleo SDN. En el desarrollo de este documento se explicará cómo los resultados negativos obtenidos podrán ser superados en el mediano plazo. Con estos resultados se podrá argumentar técnicamente a los operadores de servicio sobre el nuevo rumbo a tomar en relación a la infraestructura y paradigma que soportará las futuras demandas de su modelo de negocio.