sábado, 28 de mayo de 2016

miércoles, 11 de mayo de 2016


ENSAYO: GERENTE DE PROYECTOS, GERENTE DE GERENTES 
O DIRECTOR DE LA ORQUESTA

¿Qué elemento será el más difícil de planear y administrar en un proyecto para un gerente de proyectos?
Un proyecto está delimitado en un tiempo, acareará costos en gran o menor medida dependiendo de la ambición del alcance que se quiera lograr y para lograrlo todo deberá actuar de forma conjunta e integral.
Una gran estrategia es para lograrlo creo yo es dar un paso a la vez, logra pequeñas grandes victorias. Cuando se busca un objetivo se suele descuidar por parte de un gerente la parte humana y creo que ese es un gran error del que el que sea tome el papel de director de la orquesta por lo siguiente:
“Ser un buen gerente de proyectos “Dependerá mucho de nosotros. Vivir con los demás es un arte que puede aprenderse no sólo para caer bien, sino porque la integración social es un factor clave del bienestar emocional. Las habilidades sociales son una serie de conductas y gestos que expresan sentimientos, actitudes, deseos y derechos del individuo, siempre de una manera adecuada y de modo que resuelven satisfactoriamente los problemas con los demás. Si cultivamos y dominamos estas habilidades podremos conseguir satisfacciones en el ámbito familiar, de las amistades y laboral, relacionándonos cómodamente con nuestros jefes, compañeros, empleados, proveedores y saber cómo convencer de nuestras posturas o planteamientos (Figuerola, 2010).
Un gerente de proyecto es simplemente el mejor líder no un amo y dueño como suele pensarlo y tratar de demostrarlo generalmente. Todo lo que ese rol implica (negociador, comunicador, ser competente) en todas las fases de ejecución de un proyecto en pro de hacer rendir el tiempo, de maximizar la eficiencia, de minimizar costos y riesgos si sacrificar calidad, entender que lo que se hace parte de un todo u generalmente no se trabaja aisladamente y consideramos lo más importante gestionar la delimitación clara y el cumplimiento del alcance.
Antes de iniciar a ejecutar un proyecto todo debe estar planeado. De ello depende en gran parte el logro de objetivos y el cumplimiento de las expectativas.
Para planear se debe saber hacer y, saber que se requiere y se va a hacer por lo que es necesario definir claramente el alcance del proyecto. Se debe definir únicamente Todo lo que se requiere para lograr el objetivo como conjunto. Se necesita siempre definir características, funciones, trabajo necesario para entregar elaborar producir.
El primer paso para definir el alcance es reunir los requisitos que básicamente es dejar documentado los requisitos; esta actividad afecta directamente la definición de costos, el establecimiento del cronograma y entre mejor se haga la calidad se vería afectada proporcionalmente. Los requisitos están conformados de expectativas, entradas, procesos y salidas, herramientas y técnicas necesarias. Para recopilar los requisitos suele aplicarse técnicas de recolección de información como entrevistas, cuestionarios, reuniones grupales, observación directa y la que creo para mi es casi siempre la más efectiva pero no siempre es posible por factores técnicos o de costos que es elaborar prototipos.
Una vez delimitado el alcance al final debe verificarse con un equipo multidisciplinar si realmente nada realmente trascendente se escapa y una vez se está seguro se procede a controlar el alcance en fase de ejecución. El control del alcance se limita a verificar que se ejecute lo planeado y en caso de no hacerlo se debe tomar con urgencia las acciones correctivas o mejor aún preventivas para no desviarse del camino y cumplir con las mediciones mínimas esperadas.
Para hacer “Rendir “el tiempo deben entender el señor gerente por obligación y los demás por consecuencia directa que el tiempo de un proyecto es escaso, equitativo desde el inicio a su fin para todos, indispensable, imparable, inmodificable, no se presta, regala mucho menos se devuelve y solo se puede aprovechar una vez y es acá y ahora simplemente se limita a ser. Del éxito de la planeación depende que la programación propuesta dentro del tiempo programado sin demoras ni retrasos al final de cada actividad y como resultado de conjunto.
Habiendo entendido lo anterior debe procurarse definir las actividades que se convertirán en metas cortas a ejecutar durante el proyecto una o más veces; pensarlas en un paso a la vez. Las actividades dependen del alcance por lo que las actividades son escalones secuenciales encadenados que dependen unas de otras para llegar a la cima, y llegar a la cima requiere un costo por lo que necesariamente dar un paso equivale a un pequeño costo asociado que no se puede pasar por alto.
Para llevar el control del tiempo se requiere establecer un cronograma que defina claramente el nombre de la actividad, responsable, fechas de delimitación y duración máxima. Como todo siempre hay cabida a retrasos y en esos casos el director de la orquesta debe preguntarse ¿Qué pasa si…?
Así como el tiempo requiere ser planificado andes de ser ejecutado también lo son los costos por lo cual también deben ser gestionados. En La gestión de costos el gerente debe destacar dos actividades que son presupuestar bien y controlar. Presupuesta bien implica un nivel de exactitud extremo, entre más grande sea el proyecto más dispendioso, tiempo y personas se deberá involucrar. Para cada actividad a ejecutar se debe estimar un costo que se calcula en base a cantidades y unidades medibles y los cuales deben ser llevados directamente a la contabilidad del proyecto. Una vez realizado el presupuesto (que directamente y casi siempre un costo implica dinero) por precaución el gerente debe destinar una cantidad prudente y considerable para contingencias que siempre esteran latentes y serán bajas en la medida que se controlen los riesgos.
El presupuesto se realiza una sola vez y antes de iniciar el proyecto, puede ajustarse en la medida de la ejecución y sobre la marcha tomar decisiones para lo cual se hace el control de costos. Cuando se hacen los costos estos deben agruparse por centros o códigos únicos a los cuales se va cargando la cantidad ejecutada y entre más detallado se fue al presupuestar más fácil será realizar el control , el cual generalmente se realiza verificando la diferencia entre lo planeado y lo ejecutado contrastado con el porcentaje de avance general; en relación con lo anterior debe establecerse el nivel aceptable de variación entre lo planeado y lo ejecuta con el fin de establecer que acciones deben tomarse como medidas de emergencia para asegurar el cumplimiento destacando que realizar una disminución de costos debe procurar no disminuir la calidad del resultado final.
Como lo dice el encabezado el gerente de gerentes tiene que poder integrar a todas las cabezas visibles hacia un solo camino y para realizar esto debe unificar todos los procesos enredar los hilos para construir un solo lazo. El gerente debe ser capaz de analizar y comprender el alcance con el fin de que establezca la dirección del camino de todos. Establecer mediante su visión y liderazgo entregables cortos, independientes y medibles que aporten valor por si solos de manera periódica con el fin de poder hacer seguimientos en intervalos prudentes. Debe establecer los puntos clave en los que el avance de la ejecución sea claramente visibles y medibles, y antes de eso ser claramente establecido el punto de inicio de planeación, el punto de inicio de ejecución, los puntos y fechas de control, llevar un control de cambios riguroso, no perder la trazabilidad de las actividades y la supervisión en ningún momento y así como tiene claro el inicio también tiene más claro cuál es el momento de finalización del proyecto. Finalizar es un momento clave ya que en este instante se supone que sí la unión de esfuerzos se hizo bien  y el seguimiento fue oportuno y se superaron los contratiempos debe estar por consecuencia  todas las actividades ejecutadas a satisfacción, el presupuesto de costos fue ejecutado sin variaciones importantes que fueron ajustadas mediante la marcha de tal forma que al entregar en las manos de gerente general o patrocinador económico del proyecto el producto o servicio elaborados concluyan con éxito y cumplan las expectativas trazadas desde el inicio.
Habiendo dicho todo lo anterior es fácil para el gerente sentirse estresado en la carrera contra el tiempo, reducir los costos intentando pagar mano de obra calificada lo más barato e injusto que se aguanten es una fácil solución, no tener en cuenta a los demás y juntar todo de la manera que se crea la mejor de forma soberbia no es una decisión inteligente.
Para lograr todo lo anterior que se requiere, cumplir al patrocinador, capitalista como se le quiera llamar se necesita principalmente gente y cuidar a esa gente, a nuestro colaborador, aunque obviamente generalmente son subalternos verlos como iguales estará muy bien.
Lo más difícil de gerencia son las personas que son impredecibles, variables y sensibles a cualquier aptitud hostil, injusta arrogante. Tener a las personas contentas las mantendrá activas, creativas en busca de soluciones eficientes desde el principio, comprometidas con sus objetivos y alineadas con los suyos, con autoestima alto consigo mismo y su entorno, cualidades que desde su buena disposición para liderar lograran hacer casi cualquier cosa realidad, los hará desear tocar la mejor melodía que usted pueda componer.

lunes, 2 de mayo de 2016

AMPLIACIÓN DE LA PROPUESTA

ANTECEDENTES


Varios estudios tanto dentro de la UNAD como tesis de grado han abordado el tema de deserción y causas y externos como lo son aplicaciones de BIG data a modelos de educación en línea tradicionales y como gran ejemplo los cursos MOOC.
Varias tesis de grado de estudiantes de nuestra universidad  han abordado el tema del aumento y mantenimiento de los altos índices  de deserción en la UNAD. Mencionando algunas muy específicas como lo son  INTERVENCIÓN PSICOSOCIAL A LOS ESTUDIANTES DEL CEAD DE SOATÁ- BOYACÁ PARA PREVENIR EL RIESGO A LA DESERCIÓN ESTUDIANTIL E INCREMENTAR LA PERMANENCIA  (REYES, 2014) , “Causas que influyeron en el aumento de la tasa de deserción de estudiantes de pregrado de Psicología en la UNAD CEAD Tunja durante los años 2013 al 2015” (80843983, 2015) en la cual basados en la aplicación de encuestas , entrevistas acotaron los resultados en conjuntos de categorías y encontraron que El referente nacional encontró que el factor que más influye en la deserción del estudiante fue  el factor INSTITUCIONAL con un 35%.
El referente nacional muestra una influencia del 22% (tercera posición) como causal de deserción y dentro del mismo, la metodología con un 72% como la principal causa dentro del factor, mientras que la investigación local muestra dicho factor con un 35% (primera posición) como causal y dentro del mismo, al igual que el referente nacional, la “metodología” con un 50% de influencia en la condición de deserción del estudiante. Lo anterior ratifica que a nivel nacional y a nivel local, la metodología es vista por parte del estudiante, como la principal causal dentro de las opciones del factor; Más aún al tratarse de una metodología diferente a la tradicional. A la luz de lo anterior se hace necesario revisar la realidad del trabajo colaborativo como estrategia formativa básica en la UNAD, ya que las percepciones que los participantes de la investigación refirieron ante el trabajo colaborativo como una actividad con debilidades en especial a los canales de comunicación poco efectivos con el tutor y a la falta de orientación de éste, a la poca claridad en la estrategia de los roles que la UNAD propone.
Después del factor económico y digno de destacar es que la principal falencia que identifican los desertores se da en el campo de la inter-relación académica y la dificultad de identificación de su vocación.
La orientación y apoyo brindado por los consejeros y la atención de los tutores, si bien la calidad de éstos y de los directores, así como la calidad de los contenidos de las materias recibe las más altas valoraciones (medias de 3.3). Es decir, de acuerdo con la percepción de los desertores se dispone de contenidos y docentes de buena calidad, pero se brinda escasa atención al aprendizaje de los estudiantes. (Ángel Humberto Facundo Díaz, 2009).
Teniendo como referentes a estas dos investigaciones, además de las que realiza la UNAD se ha abordado se ha tomado acciones como la conformación de un plan padrino, seguimiento de alertas tempranas de contacto a estudiantes en riesgo de deserción, alianzas con entidades crediticias, rediseño de los ambientes de aprendizaje como las OVAS pero nunca se ha atacado el tema desde el punto de vista de hacer el aprendizaje más personalizado tratando de incorporar al sistema E-dunet como lo han hecho algunas instituciones como se menciona a continuación.
El hecho de usar Big Data en educación no es solamente un fenómeno de escuelas e institutos, sino que también se da en educación superior. En los 7 años que han pasado desde que el primer Massive open online course fue lanzado por dos profesores canadienses, los MOOC se han convertido en una fuente de grandes cantidades de datos sobre las conductas de los estudiantes. Aunque solamente un número relativamente pequeño de alumnos termina completando un MOOC, lo cierto es que sus datos ayudan a los educadores a desarrollar nuevos modelos de enseñanza que pretenden ser más efectivos. Hablamos por ejemplo de los programas que combinan la educación online con el coaching, los exámenes regulares y otras pruebas que miden el progreso.
Según el MIT Technology Review, la educación online ha demostrado ser en algunos casos más exitosa que las clases presenciales tradicionales. La Arizona State University, por ejemplo, combina las clases presenciales y online: Ofrece vídeos de las clases e incorpora una herramienta online que analiza qué tipo de apoyo necesitan los estudiantes de manera personalizada. Gracias a los informes sobre el progreso de los alumnos, los datos sobre el tiempo de dedicación y el éxito de las sesiones de coaching, ecl número de estudiantes que consigue aprobar se sitúa en el 75%. (More, 2015)
El análisis del aprendizaje es el uso de datos inteligentes, datos producidos por el aprendiz y modelos de análisis para descubrir información y conexiones sociales y predecir y asesorar sobre el aprendizaje.
Los MOOC y las plataformas de elearning recogen una gran cantidad de información acerca de sus usuarios, ya que no solo almacenan no sólo los perfiles y las contribuciones que introduce el usuario, sino también una gran cantidad de datos de registro que cubren las interacciones del usuario con el sistema. El análisis del aprendizaje se hace la pregunta de cómo podemos utilizar estos datos y la información contenida en ellos para mejorar el aprendizaje desde tres puntos de vista: el del alumno, el del profesor y el del administrador. Normalmente hay tres tipos de datos interesantes, los cuantitativos y basados en números puros, los datos interacciones sociales de los cuales se pueden crear grafos de red y los que permitan un análisis de calidad para medir la calidad de las aportaciones e interacciones. (Alcalde, 2016)

PROPÓSITO DE LA INVESTIGACIÓN

Al realizar este proyecto buscamos brindar una amplia interacción, por medio del desarrollo y uso de las herramientas que puede ofrecer el campus virtual de la UNAD, aplicando para ello las herramientas que brinda la web, permitiendo crear una herramienta de CANVAS.
“Un modelo de negocio fundamentado en la innovación se basa en encontrar y fomentar nuevas formas de crear, entregar y captar valor para el cliente” Alex Osterwalder
De esta manera, se pretende formar y cultivar en cada estudiante el pensamiento y cultura de que puede iniciar dar forma a sus ideas de negocios con una herramienta que sea la guía para proyectar su pensamiento acerca del modelo de negocio que desea, logrando asi que la curva de éxito sea más corta, moderna, sencilla y práctica. Que desarrolle la capacidad de interacción del estudiante, cambiando la cultura pasiva a una cultura proactiva.
Analizando los datos anteriormente mencionados acerca de los índices de deserción de los estudiantes nuevos y a largo plazo, además de conocer una de las principales causas de deserción relacionada con la interacción de la universidad con los estudiantes en cuanto a la falta de atención sobre el proceso de aprendizaje esta investigación tiene como finalidad dotar al sistema de la E-dunat de la capacidad de interacción en tiempo real con el estudiante mediante la implementación de la tecnología Big Data capaz de procesar grandes cantidades de información en tiempo real y de diferentes orígenes.
Capturar cantidades de datos masivos y tener alta capacidad de procesamiento en tiempo Real por sí solo no es ningún logro por lo que el principal propósito es que al tener la capacidad de captar el mayor detalle de eventos relacionados con la información académica del estudiante al interactuar con la plataforma se pueda construir un sistema capaz de interactuar con el estudiante , adaptarse a sus necesidades de apoyo a sus aprendizaje , brindar a los tutores indicadores cualitativos además de los cuantitativos ya existentes de la calidad de aprendizaje obtenido e indicar que posibles estrategias de mejora.
El proceso de apoyo vocacional es fundamental para garantizar la continuidad de las personas por lo que el análisis de fuentes como redes sociales mediante podría contribuir a reconstruir un mejor perfil del estudiante y ayudarle en su elección de programa.
Al final del programa es importante verificar si después de implementadas las características sobre el sistema el índice de deserción y retención de los estudiantes se ve afectado de forma positiva para todos y si es posible seguir dotando a E-dunat de inteligencia que permita hacer el proceso de aprendizaje cada vez más personalizado y preciso con el fin de dar  atención al aprendizaje de los estudiantes , que se sientan más apoyados en su proceso y dar herramientas al tutor de seguimiento y toma de decisiones.
MARCO TEORICO
¿Qué es el Big Data?
El Big Data hace referencia a un gran volumen de información que manejan un gran conjunto de datos de gran volumen, de veracidad, de valor y de gran variedad de recursos, convirtiéndose en una gran prioridad empresarial debido a su capacidad para influir en la economía y toma de decisiones en las mismas.
Big Data proporciona soluciones a retos empresariales, inspira la transformación de procesos, empresas e incluso la misma sociedad.
El gran avance tecnológico que se vive en esta sociedad del conocimiento y de la información, respaldada por el uso de las TICs impulsa a las empresas a adaptarse a una serie de desafíos a los que no se habían enfrentado.
Dentro de las muchas empresas que se ven enfrentadas a cambios tan abruptos por los avances tecnológicos, encontramos las entidades educativas, quienes deben velar por la calidad de su educación a la par que marchan al ritmo de la tecnología  sus avances, y uno de sus grandes retos es manipular, almacenar, administrar, buscar y analizar grandes volúmenes de información relacionados a todos sus estudiantes y procesos educativos.
Importancia del Big Data
Tomando como base un estudio realizado por IBM a mediados del 2.012, sobre el uso de big data en el mundo real, se puede observar cómo, aunque todas las personas tienen opiniones divididas acerca de que es big data, si  están orientadas todas hacia los volúmenes de datos en crecimiento.
Y es precisamente este tipo de estudios y de conclusiones las que dan la importancia a este término, ya que la digitalización de “todo” abre una puerta muy grande a diferentes tipos de datos en tiempo real que pueden ofrecer una amplia variedad de información, dependiendo de cómo se analice.
Pero ¿Cuál es la importancia real de Big Data? ¿Porque no analizar este volumen de información por medios más tradicionales, como las bases de datos relacionales?
Big Data posee una característica que permite diferenciarla y distinguirla fácilmente, las 3V:
Volumen: Cantidad de datos.
Variedad: Diferentes tipos y fuentes de datos.
Velocidad: Los datos en movimiento. La velocidad a la que se crean, procesan y analizan los datos continúa aumentando.
Pudiéndose incluir además de estas una cuarta V, de veracidad o incertidumbre de los datos, haciendo referencia al nivel de fiabilidad que se debe asociar a ciertos tipos de datos.
Teniendo claro lo anterior, es posible definir que Big Data es sumamente importante para realizar análisis de información de este tipo, información que cumple con los anteriores criterios, y esto es debido a que un gran volumen de datos no puede ser analizado por medio de una base de datos relacional, utilizando los métodos tradicionales.
Una base de datos relacional no nos permitirá analizar información con un gran volumen y cuya estructura y tipo de dato no este normalizado, y es allí donde Big Data ofrece la solución, ya que trabaja con bases de datos capaces de almacenar y procesar grandes cantidades de datos y de los tres tipos de datos posibles (estructurados, semi-estructurados y sin estructurar). Las tecnologías relacionadas con Big Data incluyen NoSQL bases de datos, Hadoop y MapReduce. Estas tecnologías forman el núcleo de la plataforma de software de código abierto que soporta el procesamiento de grandes volúmenes de datos a través de sistemas en clúster.
Beneficios del Big Data
A continuación se citan los beneficios e inconvenientes más relevantes que han sido extraídos de un artículo publicado en Eureka-startups (2013) por Vauzza [1]:
1.      Gestión del cambio:
a.       Búsqueda de nuevas oportunidades de negocio a través de segmentación mejorada y venta cruzada de productos (mejora de la estrategia).
b.      Mediante la aplicación de análisis y modelado predictivo a los datos de cuentas de clientes e historial de transacción, la solución permite a los agentes llevar a cabo una segmentación basada en la probabilidad de que el cliente contrate servicios o productos complementarios, o contratar servicios de mayor valor (mejora de segmentación).
c.       Mediante el análisis de consumo de los servicios y productos de los clientes, la empresa puede optimizar las estrategias de venta cruzada, afinar mensajes de marketing y proporcionar ofertas específicas. Se puede predecir con mayor exactitud qué productos son los más apropiados para cada cliente (mejora de la estrategia).
d.      Ofrecer la combinación adecuada de servicios y productos mejora la eficacia y la eficiencia de la fuerza de ventas de la compañía, mientras que el toque más personalizado ayuda a los agentes a forjar lazos más estrechos con clientes, lo cual mejora la lealtad (mejora de la estrategia).
e.       Mejoras Operativas: Mayor capacidad de visibilidad del negocio a través de informes más detallados.
2.      Análisis de navegación web y hábitos de consumo online:
a.       Análisis de Redes Sociales: Determinar los círculos sociales de los clientes a partir de interacciones telefónicas y redes sociales online genera una visión completa de los clientes, identificando el papel que desempeñan en sus círculos y su grado de influencia.
b.      Marketing Viral (marketing que explota redes sociales…): Detecta clientes más influyentes, roles sociales… para maximizar la difusión de tus productos y servicios (mejor conocimiento de clientes y del mercado en redes sociales).
c.       Análisis de datos de navegación: Analiza la navegación Web y hábitos de consumo online: extrae nuevas y valiosas perspectivas de los clientes. Se identifica al usuario (localización, estado del terminal, servicios de acceso), se monitorizan sitios y búsquedas por palabra, urls visitadas, tiempo de navegación, etc. (mejor conocimiento del cliente).
d.      Cuadro de Mandos en tiempo real, la información siempre está disponible sin esperas de actualización de los datos (información en tiempo real).
3.      Anticipación a los problemas:
a.       Un sistema predictivo de análisis y cruce de datos nos permite poder anticiparnos a posibles problemas que puede surgir en el futuro, como por ejemplo una predicción de riesgo de catástrofes que permitiría ajustar la política de precios y aprovisionar fondos para posibles pagos (utilidad para ver la veracidad de los datos ante datos imprecisos).
4.      Mejoras de Procesos:
a.       Permite la simplificación de procesos actuales y control del negocio (reducción de costes).
b.      Análisis de Seguridad. Analítica proactiva que permite la reducción de riesgos y pérdidas frente a fraudes (reducción de costes).
c.       Permite detectar patrones complejos de fraude en tiempo real analizando los datos históricos, el patrón de uso de información de geolocalización, análisis de transacciones y operaciones sospechosas (reducción de costes).
5.      Soporte a la toma de decisiones a través de algoritmos automáticos.
a.       Una analítica sofisticada que analice todos los informes y datos, ayuda a la toma de decisiones, reduciendo los riesgos y descubre información que antes podría estar oculta, pero a la vez importante (ayuda a la toma de decisiones).
6.      Reducción de costes.
7.      Reducción de tiempos.
8.      Desarrollo de nuevos productos.
9.      Ofertas optimizadas y personalizadas.
10.  Tomas de decisiones más inteligentes que con los anteriores sistemas Business Intelligence.
11.  Filtros inteligentes de seguridad en el negocio electrónico


Inconvenientes de Big Data
A pesar de que Big Data es la solución para el manejo de altos volúmenes de información,     también es necesario saber que existen desventajas:
·         Falta de profesionales expertos.
·         Dificultad de integración con los procesos de las empresas
·         Calidad de los datos
·         Comprensión de los resultados, dando la posibilidad de sacar conclusiones poco acertadas.
·         Problemas de privacidad.
·         Problemas de relevancia
Aplicaciones de Big Data
El Learning Analytics y el Big Data en educación han sido temas muy recurrentes en tecnología y en los medios en los últimos años. Ahora, se confirma que estas dos herramientas de aprendizaje realmente pueden solucionar muchos de los problemas en nuestros sistemas educativos.
El uso del Big Data se traduce en una enseñanza más personalizada y centrada en la mejora constante de los métodos de aprendizaje.
EL Big Data en la educación permite que se pueda pensar en planteamientos como, ¿Qué pasaría si...
·         instructores y alumnos pudieran interactuar con el contenido y colaborar entre sí?
·         pudiésemos cuantificar y visualizar más dimensiones de la formación como la motivación o el esfuerzo?
·         el profesor y los alumnos recibieran notificaciones y alertas, en función de su actividad?
·         pudiéramos predecir el rendimiento futuro de un alumno en función de las respuestas

·         pudiéramos personalizar el proceso de aprendizaje por alumno en función de sus motivaciones o dificultades?

DEFINICION DE TERMINOS
ACCESIBILIDAD: Se refiere a qué tan accesible es el sitio para personas con discapacidades que también utilizan la Web, como personas ciegas, con problemas de artritis, o que no ven bien los colores.   AJAX: Es una técnica de desarrollo web para crear aplicaciones interactivas. Siendo posible realizar cambios sobre las páginas sin necesidad de recargarlas, mejorando la interactividad, velocidad y usabilidad en las aplicaciones. 
AMBARI: Es una interfaz web que permite implementar y administrar clústers de Apache Hadoop. Su desarrollo está siendo dirigido por ingenieros de Hortonworoks, que incluyen en su plataforma de datos “Ambari Hortonworks”. 
APACHE KAFKA: (Desarrollado por LinkedIn). Es un sistema distribuido de publicaciónsuscripción de mensajería que ofrece una solución capaz de manejar toda la actividad del flujo de datos y procesar estos datos en un sitio web de gran consumo. Este tipo de datos (páginas vistas, búsquedas y otras acciones del usuario) son un ingrediente clave en la web social actual. 
AVRO: Es un sistema de serialización de datos optimizado para Hadoop/MapReduce. Tiene la ventaja de ser compacto, flexible y admitir varios lenguajes de programación, lo cual lo posiciona como una alternativa muy buena a los SequenceFiles (de Hadoop) o ProtoBuf (de Google). 
BASE DE DATOS: es un conjunto de datos pertenecientes a un mismo contexto y almacenados sistemáticamente para su posterior uso. 
BIGTOP: Es un esfuerzo para crear un proceso más formal o marco de referencia para las pruebas de paquetización e interoperabilidad de sub-proyectos Hadoop y sus componentes relacionados, con el objetivo de mejorar la plataforma Hadoop en su conjunto.  
CASSANDRA: Es una base de datos distribuida desarrollada inicialmente por Facebook. Diseñada para manejar grandes cantidades de datos distribuidos a través de servidores commodity, tiene como características un arquitectura de tipo "key/value", el no tener ningún punto único de fallo (SPOF), un método de replicación de información basado en "gossip protocol" y la problemática "eventual consistency". 
CHUKWA: Es un subproyecto dedicado a la carga masiva de varios ficheros texto dentro de un clúster Hadoop (ETL). Chukwa se construye bajo el sistema de archivos distribuido (HDFS) y el marco MapReduce y hereda la escalabilidad y robustez de Hadoop. También incluye un conjunto de herramientas flexible y potente para la visualización y análisis de los resultados. 
DREMEL: Es un sistema de consultas interactivo para el análisis de datos anidados de sólolectura. Es una solución ad-hoc escalable, que mediante la combinación de niveles de múltiples árboles de ejecución y el diseño de columnas de datos, es capaz de ejecutar consultas sobre tablas de agregación de un billón de filas en segundos. El sistema escala a miles de CPUs y petabytes de datos, y cuenta con miles de usuarios en Google. 
CLUSTER: Conjunto de servidores (o nodos) que permiten garantizar la continuidad del servicio y distribuir la carga de procesamiento/red.  
ESTÁNDARES: Se refiere a qué tan cercano se acerca su sitio a las reglas impuestas por la W3C y qué tanto se aproxima a los estándares correctos.  
FLUME: Es un marco para aportar datos a Hadoop. Los agentes están poblados de toda la infraestructura de TI - dentro de los servidores web, servidores de aplicaciones y dispositivos móviles, para recoger esos datos e integrarlos en Hadoop. 
HAMA: Es una plataforma de computación distribuida basada en técnicas de computación paralelas masivas para, por ejemplo, cálculos científicos, matriz, gráfico y algoritmos de redes. 
HBASE: Es una BBDD NoSQL de baja latencia. Se trata de la versión java opensource de Hadoop de la famosa BBDD NoSQL de Google: BigTable. Como principales características podemos destacar: datos almacenados en columnas, sistema de versioning de los datos, consistencia de las escrituras y lecturas y recuperación automática en caso de fallos. Ha sido elegido por Facebook, entre otras cosas, para almacenar todos los correos de los usuarios de la misma plataforma. 
HCATALOG: Ofrece una capa de abstracción de acceso a los datos. Permite a los usuarios de Hive, Pig o MapReduce acceder facilmente a cualquier fichero en HDFS sin preocuparse del formato que puede tener este fichero (sea CSV, SequenceFile, JSON etc). Se trata de un proyecto inicialmente desarrollado por Hortonworks. 
HDFS: (Hadoop Distributed File System), la capa de almacenamiento de Hadoop, es un sistema de fichero distribuido escrito en java, escalable, tolerante a fallos. Aunque Hadoop pueda funcionar con varios sistemas de ficheros (sistema de ficheros locales de Linux, GlusterFS, S3 de Amazon...) HDFS se desmarca de ellos por ser totalmente compatible con MapReduce y ofrecer la optimización de "localidad de los datos", lo cual lo convierte en la solución "natural" de Hadoop. 
HTML5: es la última evolución de la norma que define HTML. El término representa dos conceptos diferentes: Se trata de una nueva versión del lenguaje HTML, con nuevos elementos, atributos y comportamientos, y un conjunto más amplio de tecnologías que permite a los sitios Web y las aplicaciones más diversas y de gran alcance. Este conjunto se le llama HTML5 y amigos y, a menudo reducido a sólo HTML5.  
JAVASCRIPT: es un lenguaje de programación, se utiliza principalmente del lado del cliente (es decir, se ejecuta en nuestro ordenador, no en el servidor) permitiendo crear efectos atractivos y dinámicos en las páginas web. Los navegadores modernos interpretan el código JavaScript integrado en las páginas web.  
JQUERY: Es una librería de JavaScript que simplifica el scripting en HTML y permite manipular el CSS directamente; actualmente el 30% de los 10,000 sitios más populares del mundo lo utilizan y dicho número va en aumento. Es sumamente dinámico, interactivo y fácil de implementar y existe un arsenal de tutorías u ejemplos por toda la Web. 
MAPREDUCE: Patrón de arquitectura que permite realizar cálculos en paralelo y, por tanto, perfectamente adecuado para el tratamiento de bases de datos de gran tamaño. 
MONGODB: Es un sistema de BBDD NoSQL orientado a documentos de código abierto. Por ser de tipo documentos, las estructuras de datos se guardan en documentos con un esquema dinámico, pero siguiendo la notación de JSON. Estas estructuras, que son denominadas por MongoDB como BSON, son dinámicas, lo que implica que no exista un esquema predefinido, pudiendo un documento no tener todos los campos definidos para este documento. Esto supone que la integración de los datos en ciertas aplicaciones sea más fácil y rápida. 
NEO4J: Es una base de datos de gráficos, de código abierto soportada por Neo Technology. Neo4j almacena los datos en nodos conectados por relaciones dirigidas y tipificadas, con las propiedades de ambos, también conocidas como Gráfico de Propiedad (Property Graph). 
OOZIE: Es un sistema de gestión de WorkFlows (flujos de trabajo) que permite a los usuarios definir una serie de trabajos escritos en varios lenguajes, como MapReduce, Pig y Hive, creando entre ellos un flujo de procesos (jobs) con lógica. Oozie permite a los usuarios especificar, por ejemplo, que una determinada consulta sólo debe iniciarse después de determinados trabajos previos en los que se basa para recoger datos que se han completado. 
PIG: Es un lenguaje de programación de alto nivel desarrollado por Yahoo para facilitar la programación de MapReduce sobre hadoop. Es relativamente fácil de aprender (ya que es muy expresivo y legible) y es eficiente frente a grandes flujos de datos. 
PHP: es un lenguaje de código abierto muy popular, adecuado para desarrollo web y que puede ser incrustado en HTML. Es popular porque un gran número de páginas y portales web están creadas con PHP. Código abierto significa que es de uso libre y gratuito para todos los programadores que quieran usarlo. Incrustado en HTML significa que en un mismo archivo vamos a poder combinar código PHP con código HTML, siguiendo unas reglas. 
R: Es un lenguaje y un entorno para computación y gráficos estadísticos. Es un proyecto GNU, que es similar al lenguaje S. R ofrece una gran variedad de estadísticas (modelos
lineales y no lineales, tests estadísticos clásicos, análisis de series de tiempo, clasificación, clustering, ...) y las técnicas gráficas. Además es altamente extensible. 
RIAK: IEs una BBDD NoSQL inspirada en Dynamo, de código abierto, distribuida y que cuenta con una versión comercial. BBDD clave-valor con algunos metadatos, sin esquema de almacenamiento, tipo de datos agnósticos, lenguaje agnóstico que soporta a través de una api REST y PBC31 varios tipos de lenguaje (Eralng, Javascript, Java, PHP, Python, Ruby...), masterless ya que todos los nodos son iguales, escalable, eventualmente consistente y utiliza map/reduce y “link”. Riak está diseñado para resolver una nueva clase de problemas de gestión de datos, específicamente los relacionados con la captura, almacenamiento y procesamiento de datos dentro de entornos TI distribuidos y modernos como la nube. 
SQL/noSQL: El Structured Query Language es el lenguaje informático más utilizado para estructurar bases de datos y realizar consultas para extraer la información. Estos últimos años ha aparecido un nuevo sistema de bases de datos «noSQL», que se distingue por tener una mayor flexibilidad de las bases de datos y una arquitectura de cluster 
SQOOP: Es una herramienta de conectividad para mover datos de Hadoop, tales como bases de datos relacionales y almacenes de datos. Permite a los usuarios especificar la ubicación de destino dentro de Hadoop e instruir Sqoop para mover datos de Oracle, Teradata u otras bases de datos relacionales para cumplir el objetivo marcado. 
STORM: Es un sistema de computación distribuida en tiempo real, libre y de código abierto, nacido en el seno de Twitter. Storm hace fácil procesar de manera fiable flujos no estructurados de datos, haciendo en el ámbito del procesamiento en tiempo real, lo que hizo Hadoop para el procesamiento por lotes. 
VOLDEMORT: Es un sistema de almacenamiento distribuido basado en key-value. Se utiliza en LinkedIn para ciertos problemas de almacenamiento de alta escalabilidad donde la partición funcional simple no es suficiente. 
ZOOKEEPER: Es un proyecto de software de la Apache Software Foundation, que provee un servicio de configuración centralizada y registro de nombres de código abierto para grandes sistemas distribuidos. ZooKeeper es un subproyecto de Hadoop.

SUPUESTOS Y EXPECTATIVAS DEL TEMA

De esta investigación se espera primero que todo demostrar que se puede implementar mediante herramientas tecnológicas asociadas a Big Data implementadas en el aplicativo E-dunat que permitan realizar la captura de datos en tiempo real, de manera sistemática, de diferente naturaleza, y de forma masiva funcionalidades que permitan a partir de análisis de datos generar contenidos más dinámicos, precisos y personalizados a cada estudiante según sus características y resultado de aprendizaje y necesidades de fortalecimiento.
Suponemos que una vez dotado el sistema de inteligencia y capacidad de análisis se pueda fortalecer el proceso de apoyo de selección y vocación a los estudiantes en etapas tempranas mediante análisis de datos como redes sociales entre los más importantes y algoritmos de perforación de usuarios basados en herramientas Learning Analytics se logre direccionar a cada alumno de forma más precisa y eficiente en el inicio de su futuro proceso de aprendizaje.
            Una vez implementadas las herramientas anteriores descritas suponemos en esta investigación que analizando el comportamiento a mediano y largo plazo de los estudiantes con el sistema E-dunat y la toma de decisiones por parte del personal tutorial académico al contrastar los índices de deserción de estudiantes nuevos y antiguos , estos hayan disminuido de manera significativa y exponencial con el paso del tiempo , el refinamiento del proceso y el aprovechamiento de toda la experiencia adquirida de cada grupo anterior en cada periodo académico aplicado y que los resultados de aprendizaje entre periodos se vea afectado positivamente tanto en cifra como en calidad y percepción de acompañamiento y esfuerzo de la universidad hacia los estudiante por hacer su proceso cada vez más guiado y apoyado sin dejar de lado que se trata de un proceso de aprendizaje virtual principalmente autónomo.

IMPORTANCIA DEL ESTUDIO (JUSTIFICACIÓN)

El análisis y seguimiento del aprendizaje es un tema que afecta al profesor como al alumno. Al profesor el análisis del aprendizaje le ofrece una ventana para ver el compromiso de los estudiantes en el proceso de aprendizaje y dónde pueden tener obstáculos o problemas. Mediante las visualizaciones de datos de aprendizaje se pueden identificar a los estudiantes que no consiguen los resultados, lo que permite que los profesores investiguen con los respectivos alumnos, e intervengan con medidas correctivas apropiadas.
Abordar la problemática desde una óptica interdisciplinar en la cual proporcionar una herramienta que apoye la medición y tomas de decisiones en diferentes áreas está dirigido a mejorar la estrategia de enseñanza, el acercamiento de todos los actores y el mejoramiento continuo de la calidad educativa.
Luchar contra el fenómeno de deserción en nuestra institución proporcionará mejoras para todos, fortalecimiento y experiencia para nuevas personas, garantizará mayores recursos para la institución en la medida que se expanda aún más la cobertura del acceso a la educación superior a las muchas más personas confiar en la metodología a distancia ofrecida por la universidad.

APORTACIÓN A LA DISCIPLINA , A LA ESCUELA O A LA CARRERA

El aprovechamiento del Learning Analytics no solo está dirigido a la mejora del qué se enseña, cómo se enseña, por qué se emplea determinado recurso y/o estrategia pedagógica o a quién esté dirigido el aprendizaje hecho desde una determinada materia. También va dirigido a los docentes y responsables de las instituciones educativas quienes pueden hacer uso de los datos generados desde las redes sociales, plataformas de enseñanza y otros recursos y dispositivos digitales dispuestos, en la actualidad, para establecer recomendaciones en función de los intereses de enseñanza-aprendizaje.                        Colombia no puede ni debe dejar perder el tiempo al momento de entrar en este debate desde los diferentes actores vinculados a la educación , El Learning Analytics es algo más que un simple  ajuste en torno al análisis del aprendizaje alrededor del proceso de enseñanza-aprendizaje entre docentes y estudiantes, bajo la mediación de las TIC,  a través este estudio se busca que se dé la promoción de investigaciones y la generación de contextos de intercambio de datos que ayuden a sacar provecho del Big Data  para la mejora de la calidad educativa de nuestro sistema educativo.
            Motivar a los investigadores que tengan la experticia teórica en materia educativa a enfocar sus esfuerzos en replantear la forma de enseñar y aprender bajo la mediación de las TIC que se pueda hacer uso de los datos generados desde las redes sociales, plataformas de enseñanza y otros recursos y dispositivos digitales dispuestos, en la actualidad, para establecer recomendaciones en función de los intereses de enseñanza-aprendizaje. 

  ÍNDICE ESQUEMÁTICO
                                                       CAPITULO I
                                                  GENERALIDADES

1.1. INTRODUCCIÓN
1.2. PLANTEAMIENTO DEL PROBLEMA
1.3. ANTECEDENTES
1.4. OBJETIVOS
1.4.1. OBJETIVO GENERAL
1.4.2. OBJETIVOS ESPECÍFICOS
1.5. PREGUNTAS DE LA INVESTIGACIÓN
1.6. PROPÓSITOS DE LA INVESTIGACIÓN
1.7. JUSTIFICACIÓN
1.8. METODOLOGÍA DE LA INVESTIGACIÓN

                                                  CAPITULO II
                                     MARCO DE REFERENCIA

2.1. ESTADO DEL ARTE
2.2. MARCO TEÓRICO
             2.2.1. DEFINICIÓN DE TÉRMINOS BÁSICOS
2.3. MARCO PRÁCTICO
2.4. HIPÓTESIS
2.5. METODOLOGÍA DE LA INVESTIGACIÓN

                                                  CAPITULO III
                           DESARROLLO DE LA INVESTIGACIÓN

3.1. ANÁLISIS DE INFRAESTRUCTURA ACTUAL
3.2. DISEÑO SOLUCIONES TECNOLÓGICAS  
3.3. IMPLEMENTACIÓN SOLUCIÓN TECNOLÓGICA
3.3.1. HARDWARE PROCESAMIENTO DATOS
3.3.2. SOFTWARE BIG DATA RECOPILACIÓN DATOS
3.3.3. SOFTWARE MOTOR ANÁLISIS Y TOMA DE DECISIONES

                                                  CAPITULO IIII
                                                   RESULTADOS

4.1. ANÁLISIS DE IMPACTO SOLUCIÓN

CONCLUSIONES
LINEAMIENTOS FUTURAS INVESTIGACIONES
BIBLIOGRAFÍA
ANEXOS

METODOLOGÍA DE LA INVESTIGACIÓN
La investigación a realizar es de carácter explotaría-correlacional ya que inicialmente se realizará el diseño e implementación de software BIG_Data sobre el aplicativo E-dunat más específicamente su combinación puede llamarse ANALYTICS LEARNING TOOLS, tecnología que es ampliamente novedosa y que mundialmente se encuentra en desarrollo, y localmente (Colombia) está dando sus primeros inicios tanto en infraestructura como aplicación. Del diseño e implementación deberá haberse implantado una herramienta que permitirá recoger información anónima del comportamiento de aprendizaje de los alumnos de la UNAD.
Una vez implementada la herramienta de recolección de datos iniciales se procedería a establecer las mejores técnicas de análisis y resumen de datos que permitan medir características es decir aplicar un método investigativo de observación y sobre este implementar al programa piloto los avances en temas de generación de contenido personalizado que guiaría el proceso de aprendizaje en algún periodo del año sobre algún(os) programas en especial para después ampliar la implementación a la toda tildad de cursos en general.
La recolección de la información será entonces mediante la aplicación de la técnica-herramienta diseñada propiamente que es el software de captura de datos masivos y generación de contenido dinámico y la respuesta del estudiante con la interacción a este.
El Proceso de recolección de datos debería tomar como mínimo dos periodos académicos para que sea representativo y pueda contrastarse con estuantes sobre los que no se aplicó el estudio.
Una vez se realiza la recolección de información, debe tomarse el resultado de seguimiento que hace la UNIVERSIDAD sobre los estudiantes nuevos y antiguos al final de cada periodo en los que se establece la continuidad, conformidad y tasa de deserción de nuevos y antiguos por separado, además de promedios de calificaciones de programas y resultados de pruebas saber entre otros indicadores            que también resultarían útiles.
Una vez obtenidos los resultados al final del periodo sobre los cuales deberá poderse distinguir claramente los grupos donde claramente se distinga cuales entraron en el programa piloto y tuvieron contacto con la herramienta generada y técnicas aplicadas, podremos despejar y dar respuesta a el interrogante sobre el cual gira la investigación que sería saber si aplicando Big-Data para la generación de contenido Personalizado y seguimiento de aprendizaje, mostrar mediante resultados numéricos , gráficos para su análisis como histogramas determinar que concluyan si la tasa de deserción se vio afectada positivamente sobre el grupo que interactuó con la herramienta generada, si perspectiva y conformidad con la metodología de aprendizaje de la universidad es a satisfacción y sí los resultados positivos están directamente relacionados con la implementación de la Tecnología y la incorporación de ANALYTICS LEARNING sobre E-Dunat.

APOYO BIBLIOGRÁFICO (BIBLIOGRAFÍA)


Data, B. (2013). big data. Lecture Notes in Computer Science, 7968.

Diaz, P., Jackson, M., & Motz, R. (2015, October). Learning Analytics y 
              protección de datos personales. Recomendaciones. In Anaisdos
              Workshops do Congresso Brasileiro de Informática na Educação
              (Vol. 4, No. 1, p. 981).

Ferrer-Sapena, A., & Sánchez-Pérez, E. (2013). Open data, big data: 
             ¿hacia dónde nos dirigimos? Anuario ThinkEPI 2013, 7, 150-156.

García Peñalvo, F. J., Fidalgo Blanco, Á., Echaluce, S., & Luisa, M. (2015).
                          Tendencias en innovación educativa.

Iglesias-Pradas, S., Lacleta, S. E., Luisa, M., Hernández-García, Á.,
                          García- Peñalvo, F. J., Llorens-Largo, F., ... & Conde-González,
                          M. Á. (2015). Presentación del artículo “Mirando hacia el futuro: 
                          Ecosistemas tecnológicos de aprendizaje basados en servicios”.

Lopera, J. O., Smith, P. M., González, J., & Damas, M. (2015). Ingeniería
             de Computadores en la era del Big Data: Computación de altas 
             prestaciones en clasificación y optimización. Enseñanza y 
                         aprendizaje de ingeniería de computadores: Revista de
                         Experiencias Docentes en Ingeniería de Computadores, (5), 17-27

Mayer-Schönberger, V., & Cukier, K. (2013). Big data: la revolución
                         de los datos masivosTurner.

Peñalvo, F. J. G., & Pardo, A. M. S. (2015). Una revisión actualizada del
                         concepto de  eLearning: décimo Aniversario. Education in the 
                          knowledge society (EKS), 16(1), 119- 144.

Santos, E. D., Rojas, H. S., & Bain, M. E. (2015, June). Innovación  
                         tecnológica en procesos de EaD: experiencias y retos del 
                         Programa de Educación a Distancia UNPABimodal. In XVII 
                         Workshop de Investigadores en Ciencias de la Computación 
                        (Salta, 2015).

Serrano-Cobos, J. (2014). Big data y analítica web. Estudiar las corrientes
                         y pescar en un océano de datos. El profesional de la información, 
                        23(6), 561-565.

Simoes, J., Gimènez, R., & Planagumà, M. (2015). Big Data y Bases de
                        Datos Espaciales: un análisis comparativo.

Toranzo, F. M. (2013). Riesgos en el uso de las redes sociales. Big Data, 95, 35.