A continuación encuentra la lección evaluativa para el presente curso, lo invitamos a desarrollarla:
http://my.questbase.com/take.aspx?pin=1484-0985-7268
Big Data: manipulación, gestión y análisis de grandes volúmenes de datos
domingo, 29 de mayo de 2016
sábado, 28 de mayo de 2016
INFORMACIÓN TEÓRICA DE LAS TEMÁTICAS REVISADAS DURANTE EL CURSO
Módulo del Curso
Apoyo Unidad 1 Proyecto de Grado
Apoyo Unidad 2 Proyecto de Grado
Apoyo Unidad 3 Proyecto de Grado
miércoles, 11 de mayo de 2016
ENSAYO: GERENTE DE PROYECTOS,
GERENTE DE GERENTES
O DIRECTOR DE LA ORQUESTA
O DIRECTOR DE LA ORQUESTA
¿Qué elemento será el más difícil de planear y
administrar en un proyecto para un gerente de proyectos?
Un proyecto está
delimitado en un tiempo, acareará costos en gran o menor medida dependiendo de
la ambición del alcance que se quiera lograr y para lograrlo todo deberá actuar
de forma conjunta e integral.
Una gran
estrategia es para lograrlo creo yo es dar un paso a la vez, logra pequeñas
grandes victorias. Cuando se busca un objetivo se suele descuidar por parte de
un gerente la parte humana y creo que ese es un gran error del que el que sea
tome el papel de director de la orquesta por lo siguiente:
“Ser un buen gerente de proyectos “Dependerá mucho de
nosotros. Vivir con los demás es un arte que puede aprenderse no sólo para caer
bien, sino porque la integración social es un factor clave del bienestar
emocional. Las habilidades sociales son una serie de conductas y gestos que
expresan sentimientos, actitudes, deseos y derechos del individuo, siempre de
una manera adecuada y de modo que resuelven satisfactoriamente los problemas
con los demás. Si cultivamos y dominamos estas habilidades podremos conseguir satisfacciones
en el ámbito familiar, de las amistades y laboral, relacionándonos cómodamente
con nuestros jefes, compañeros, empleados, proveedores y saber cómo convencer
de nuestras posturas o planteamientos” (Figuerola, 2010) .
Un gerente de
proyecto es simplemente el mejor líder no un amo y dueño como suele pensarlo y
tratar de demostrarlo generalmente. Todo lo que ese rol implica (negociador,
comunicador, ser competente) en todas las fases de ejecución de un proyecto en
pro de hacer rendir el tiempo, de maximizar la eficiencia, de minimizar costos
y riesgos si sacrificar calidad, entender que lo que se hace parte de un todo u
generalmente no se trabaja aisladamente y consideramos lo más importante
gestionar la delimitación clara y el cumplimiento del alcance.
Antes de iniciar a
ejecutar un proyecto todo debe estar planeado. De ello depende en gran parte el
logro de objetivos y el cumplimiento de las expectativas.
Para planear se
debe saber hacer y, saber que se requiere y se va a hacer por lo que es
necesario definir claramente el alcance del proyecto. Se debe definir
únicamente Todo lo que se requiere para lograr el objetivo como conjunto. Se
necesita siempre definir características, funciones, trabajo necesario para
entregar elaborar producir.
El primer paso
para definir el alcance es reunir los requisitos que básicamente es dejar
documentado los requisitos; esta actividad afecta directamente la definición de
costos, el establecimiento del cronograma y entre mejor se haga la calidad se
vería afectada proporcionalmente. Los requisitos están conformados de
expectativas, entradas, procesos y salidas, herramientas y técnicas necesarias.
Para recopilar los requisitos suele aplicarse técnicas de recolección de
información como entrevistas, cuestionarios, reuniones grupales, observación
directa y la que creo para mi es casi siempre la más efectiva pero no siempre
es posible por factores técnicos o de costos que es elaborar prototipos.
Una vez delimitado
el alcance al final debe verificarse con un equipo multidisciplinar si
realmente nada realmente trascendente se escapa y una vez se está seguro se
procede a controlar el alcance en fase de ejecución. El control del alcance se
limita a verificar que se ejecute lo planeado y en caso de no hacerlo se debe
tomar con urgencia las acciones correctivas o mejor aún preventivas para no
desviarse del camino y cumplir con las mediciones mínimas esperadas.
Para hacer “Rendir
“el tiempo deben entender el señor gerente por obligación y los demás por consecuencia
directa que el tiempo de un proyecto es escaso, equitativo desde el inicio a su
fin para todos, indispensable, imparable, inmodificable, no se presta, regala
mucho menos se devuelve y solo se puede aprovechar una vez y es acá y ahora
simplemente se limita a ser. Del éxito de la planeación depende que la
programación propuesta dentro del tiempo programado sin demoras ni retrasos al
final de cada actividad y como resultado de conjunto.
Habiendo entendido
lo anterior debe procurarse definir las actividades que se convertirán en metas
cortas a ejecutar durante el proyecto una o más veces; pensarlas en un paso a
la vez. Las actividades dependen del alcance por lo que las actividades son
escalones secuenciales encadenados que dependen unas de otras para llegar a la
cima, y llegar a la cima requiere un costo por lo que necesariamente dar un
paso equivale a un pequeño costo asociado que no se puede pasar por alto.
Para llevar el
control del tiempo se requiere establecer un cronograma que defina claramente el
nombre de la actividad, responsable, fechas de delimitación y duración máxima.
Como todo siempre hay cabida a retrasos y en esos casos el director de la
orquesta debe preguntarse ¿Qué pasa si…?
Así como el tiempo
requiere ser planificado andes de ser ejecutado también lo son los costos por
lo cual también deben ser gestionados. En La gestión de costos el gerente debe
destacar dos actividades que son presupuestar bien y controlar. Presupuesta
bien implica un nivel de exactitud extremo, entre más grande sea el proyecto
más dispendioso, tiempo y personas se deberá involucrar. Para cada actividad a
ejecutar se debe estimar un costo que se calcula en base a cantidades y
unidades medibles y los cuales deben ser llevados directamente a la
contabilidad del proyecto. Una vez realizado el presupuesto (que directamente y
casi siempre un costo implica dinero) por precaución el gerente debe destinar
una cantidad prudente y considerable para contingencias que siempre esteran
latentes y serán bajas en la medida que se controlen los riesgos.
El presupuesto se
realiza una sola vez y antes de iniciar el proyecto, puede ajustarse en la
medida de la ejecución y sobre la marcha tomar decisiones para lo cual se hace
el control de costos. Cuando se hacen los costos estos deben agruparse por
centros o códigos únicos a los cuales se va cargando la cantidad ejecutada y
entre más detallado se fue al presupuestar más fácil será realizar el control ,
el cual generalmente se realiza verificando la diferencia entre lo planeado y
lo ejecutado contrastado con el porcentaje de avance general; en relación con
lo anterior debe establecerse el nivel aceptable de variación entre lo planeado
y lo ejecuta con el fin de establecer que acciones deben tomarse como medidas
de emergencia para asegurar el cumplimiento destacando que realizar una
disminución de costos debe procurar no disminuir la calidad del resultado
final.
Como lo dice el
encabezado el gerente de gerentes tiene que poder integrar a todas las cabezas
visibles hacia un solo camino y para realizar esto debe unificar todos los
procesos enredar los hilos para construir un solo lazo. El gerente debe ser
capaz de analizar y comprender el alcance con el fin de que establezca la
dirección del camino de todos. Establecer mediante su visión y liderazgo
entregables cortos, independientes y medibles que aporten valor por si solos de
manera periódica con el fin de poder hacer seguimientos en intervalos
prudentes. Debe establecer los puntos clave en los que el avance de la
ejecución sea claramente visibles y medibles, y antes de eso ser claramente
establecido el punto de inicio de planeación, el punto de inicio de ejecución,
los puntos y fechas de control, llevar un control de cambios riguroso, no
perder la trazabilidad de las actividades y la supervisión en ningún momento y
así como tiene claro el inicio también tiene más claro cuál es el momento de
finalización del proyecto. Finalizar es un momento clave ya que en este
instante se supone que sí la unión de esfuerzos se hizo bien y el seguimiento fue oportuno y se superaron
los contratiempos debe estar por consecuencia
todas las actividades ejecutadas a satisfacción, el presupuesto de
costos fue ejecutado sin variaciones importantes que fueron ajustadas mediante
la marcha de tal forma que al entregar en las manos de gerente general o
patrocinador económico del proyecto el producto o servicio elaborados concluyan
con éxito y cumplan las expectativas trazadas desde el inicio.
Habiendo dicho
todo lo anterior es fácil para el gerente sentirse estresado en la carrera
contra el tiempo, reducir los costos intentando pagar mano de obra calificada
lo más barato e injusto que se aguanten es una fácil solución, no tener en
cuenta a los demás y juntar todo de la manera que se crea la mejor de forma
soberbia no es una decisión inteligente.
Para lograr todo
lo anterior que se requiere, cumplir al patrocinador, capitalista como se le
quiera llamar se necesita principalmente gente y cuidar a esa gente, a nuestro
colaborador, aunque obviamente generalmente son subalternos verlos como iguales
estará muy bien.
Lo más difícil de
gerencia son las personas que son impredecibles, variables y sensibles a
cualquier aptitud hostil, injusta arrogante. Tener a las personas contentas las
mantendrá activas, creativas en busca de soluciones eficientes desde el
principio, comprometidas con sus objetivos y alineadas con los suyos, con
autoestima alto consigo mismo y su entorno, cualidades que desde su buena
disposición para liderar lograran hacer casi cualquier cosa realidad, los hará
desear tocar la mejor melodía que usted pueda componer.
martes, 3 de mayo de 2016
lunes, 2 de mayo de 2016
AMPLIACIÓN DE LA PROPUESTA
ANTECEDENTES
Varios estudios tanto dentro de la
UNAD como tesis de grado han abordado el tema de deserción y causas y externos
como lo son aplicaciones de BIG data a modelos de educación en línea
tradicionales y como gran ejemplo los cursos MOOC.
Varias
tesis de grado de estudiantes de nuestra universidad han abordado el tema del aumento y
mantenimiento de los altos índices de
deserción en la UNAD. Mencionando algunas muy específicas como lo son INTERVENCIÓN
PSICOSOCIAL A LOS ESTUDIANTES DEL CEAD DE SOATÁ- BOYACÁ PARA PREVENIR EL RIESGO
A LA DESERCIÓN ESTUDIANTIL E INCREMENTAR LA PERMANENCIA (REYES, 2014)
, “Causas que influyeron en el aumento de la tasa de
deserción de estudiantes de pregrado de Psicología en la UNAD CEAD Tunja
durante los años 2013 al 2015” (80843983, 2015) en la cual basados en la aplicación de encuestas ,
entrevistas acotaron los resultados en conjuntos de categorías y encontraron
que El referente nacional encontró que el factor que
más influye en la deserción del estudiante fue el factor INSTITUCIONAL con un 35%.
El
referente nacional muestra una influencia del 22% (tercera posición) como
causal de deserción y dentro del mismo, la metodología con un 72% como la
principal causa dentro del factor, mientras que la investigación local muestra
dicho factor con un 35% (primera posición) como causal y dentro del mismo, al
igual que el referente nacional, la “metodología” con un 50% de influencia en
la condición de deserción del estudiante. Lo anterior ratifica que a nivel
nacional y a nivel local, la metodología es vista por parte del estudiante,
como la principal causal dentro de las opciones del factor; Más aún al tratarse
de una metodología diferente a la tradicional. A la luz de lo anterior se hace
necesario revisar la realidad del trabajo colaborativo como estrategia
formativa básica en la UNAD, ya que las percepciones que los participantes de
la investigación refirieron ante el trabajo colaborativo como una actividad con
debilidades en especial a los canales de comunicación poco efectivos con el
tutor y a la falta de orientación de éste, a la poca claridad en la estrategia
de los roles que la UNAD propone.
Después del factor económico y digno de destacar es que la principal falencia que identifican los
desertores se da en el
campo de la inter-relación académica
y la dificultad de identificación de su vocación.
La
orientación y apoyo brindado por los consejeros y la atención de los tutores,
si bien la calidad de éstos y de los directores, así como la calidad de los
contenidos de las materias recibe las más altas valoraciones (medias de 3.3).
Es decir, de acuerdo con la percepción de los desertores se dispone de
contenidos y docentes de buena calidad, pero se brinda escasa atención al aprendizaje de los estudiantes. (Ángel
Humberto Facundo Díaz, 2009) .
Teniendo como referentes a estas dos investigaciones, además de las que realiza
la UNAD se ha abordado se ha tomado acciones como la conformación de un plan padrino,
seguimiento de alertas tempranas de contacto a estudiantes en riesgo de deserción,
alianzas con entidades crediticias, rediseño de los ambientes de aprendizaje
como las OVAS pero nunca se ha atacado el tema desde el punto de vista de hacer
el aprendizaje más personalizado tratando de incorporar al sistema E-dunet como
lo han hecho algunas instituciones como se menciona a continuación.
El hecho de usar Big Data en educación no es solamente un fenómeno de
escuelas e institutos, sino que también se da en educación superior. En los 7
años que han pasado desde que el primer Massive open online course fue lanzado
por dos profesores canadienses, los MOOC se han convertido en una fuente de
grandes cantidades de datos sobre las conductas de los estudiantes. Aunque
solamente un número relativamente pequeño de alumnos termina completando un
MOOC, lo cierto es que sus datos ayudan a los educadores a desarrollar nuevos
modelos de enseñanza que pretenden ser más efectivos. Hablamos por ejemplo de
los programas que combinan la educación online con el coaching, los exámenes
regulares y otras pruebas que miden el progreso.
Según el MIT Technology Review, la educación online ha demostrado ser en
algunos casos más exitosa que las clases presenciales tradicionales. La Arizona
State University, por ejemplo, combina las clases presenciales y online: Ofrece
vídeos de las clases e incorpora una herramienta online que analiza qué tipo de
apoyo necesitan los estudiantes de manera personalizada. Gracias a los informes
sobre el progreso de los alumnos, los datos sobre el tiempo de dedicación y el
éxito de las sesiones de coaching, ecl número de estudiantes que consigue
aprobar se sitúa en el 75%. (More, 2015)
El análisis del aprendizaje es el uso de datos inteligentes, datos
producidos por el aprendiz y modelos de análisis para descubrir información y
conexiones sociales y predecir y asesorar sobre el aprendizaje.
Los MOOC y las plataformas de elearning recogen una
gran cantidad de información acerca de sus usuarios, ya que no solo almacenan
no sólo los perfiles y las contribuciones que introduce el usuario, sino
también una gran cantidad de datos de registro que cubren las interacciones del
usuario con el sistema. El análisis del aprendizaje se hace la pregunta de cómo
podemos utilizar estos datos y la información contenida en ellos para mejorar
el aprendizaje desde tres puntos de vista: el del alumno, el del profesor y el
del administrador. Normalmente hay tres tipos de datos interesantes, los
cuantitativos y basados en números puros, los datos interacciones sociales de
los cuales se pueden crear grafos de red y los que permitan un análisis de
calidad para medir la calidad de las aportaciones e interacciones. (Alcalde,
2016)
PROPÓSITO DE LA INVESTIGACIÓN
Al realizar este proyecto buscamos brindar una amplia
interacción, por medio del desarrollo y uso de las herramientas que puede
ofrecer el campus virtual de la UNAD, aplicando para ello las herramientas que
brinda la web, permitiendo crear una herramienta de CANVAS.
“Un modelo de negocio fundamentado en la innovación se
basa en encontrar y fomentar nuevas formas de crear, entregar y captar valor
para el cliente” Alex Osterwalder
De esta manera, se pretende formar y cultivar en cada
estudiante el pensamiento y cultura de que puede iniciar dar forma a sus ideas
de negocios con una herramienta que sea la guía para proyectar su pensamiento
acerca del modelo de negocio que desea, logrando asi que la curva de éxito sea
más corta, moderna, sencilla y práctica. Que desarrolle la capacidad de
interacción del estudiante, cambiando la cultura pasiva a una cultura
proactiva.
Analizando los datos anteriormente mencionados acerca
de los índices de deserción de los estudiantes nuevos y a largo plazo, además
de conocer una de las principales causas de deserción relacionada con la
interacción de la universidad con los estudiantes en cuanto a la falta de
atención sobre el proceso de aprendizaje esta investigación tiene como
finalidad dotar al sistema de la E-dunat de la capacidad de interacción en
tiempo real con el estudiante mediante la implementación de la tecnología Big
Data capaz de procesar grandes cantidades de información en tiempo real y de
diferentes orígenes.
Capturar cantidades de datos masivos y tener alta
capacidad de procesamiento en tiempo Real por sí solo no es ningún logro por lo
que el principal propósito es que al tener la capacidad de captar el mayor
detalle de eventos relacionados con la información académica del estudiante al
interactuar con la plataforma se pueda construir un sistema capaz de
interactuar con el estudiante , adaptarse a sus necesidades de apoyo a sus
aprendizaje , brindar a los tutores indicadores cualitativos además de los
cuantitativos ya existentes de la calidad de aprendizaje obtenido e indicar que
posibles estrategias de mejora.
El proceso de apoyo vocacional es fundamental para
garantizar la continuidad de las personas por lo que el análisis de fuentes
como redes sociales mediante podría contribuir a reconstruir un mejor perfil
del estudiante y ayudarle en su elección de programa.
Al final del programa es importante verificar si
después de implementadas las características sobre el sistema el índice de
deserción y retención de los estudiantes se ve afectado de forma positiva para
todos y si es posible seguir dotando a E-dunat de inteligencia que permita hacer
el proceso de aprendizaje cada vez más personalizado y preciso con el fin de dar
atención al aprendizaje de los estudiantes , que se sientan más apoyados
en su proceso y dar herramientas al tutor de seguimiento y toma de decisiones.
MARCO TEORICO
¿Qué es el Big Data?
El Big Data hace
referencia a un gran volumen de información que manejan un gran conjunto de
datos de gran volumen, de veracidad, de valor y de gran variedad de recursos,
convirtiéndose en una gran prioridad empresarial debido a su capacidad para
influir en la economía y toma de decisiones en las mismas.
Big Data
proporciona soluciones a retos empresariales, inspira la transformación de
procesos, empresas e incluso la misma sociedad.
El gran avance
tecnológico que se vive en esta sociedad del conocimiento y de la información,
respaldada por el uso de las TICs impulsa a las empresas a adaptarse a una
serie de desafíos a los que no se habían enfrentado.
Dentro de las
muchas empresas que se ven enfrentadas a cambios tan abruptos por los avances
tecnológicos, encontramos las entidades educativas, quienes deben velar por la
calidad de su educación a la par que marchan al ritmo de la tecnología sus avances, y uno de sus grandes retos es
manipular, almacenar, administrar, buscar y analizar grandes volúmenes de información
relacionados a todos sus estudiantes y procesos educativos.
Importancia del Big Data
Tomando como base
un estudio realizado por IBM a mediados del 2.012, sobre el uso de big data en
el mundo real, se puede observar cómo, aunque todas las personas tienen
opiniones divididas acerca de que es big data, si están orientadas todas hacia los volúmenes de
datos en crecimiento.
Y es precisamente
este tipo de estudios y de conclusiones las que dan la importancia a este
término, ya que la digitalización de “todo” abre una puerta muy grande a
diferentes tipos de datos en tiempo real que pueden ofrecer una amplia variedad
de información, dependiendo de cómo se analice.
Pero ¿Cuál es la
importancia real de Big Data? ¿Porque no analizar este volumen de información
por medios más tradicionales, como las bases de datos relacionales?
Big Data posee una
característica que permite diferenciarla y distinguirla fácilmente, las 3V:
Volumen: Cantidad de
datos.
Variedad: Diferentes tipos
y fuentes de datos.
Velocidad:
Los datos en movimiento. La velocidad a la que se crean, procesan y
analizan los datos continúa aumentando.
Pudiéndose incluir
además de estas una cuarta V, de veracidad
o incertidumbre de los datos, haciendo referencia al nivel de fiabilidad que se
debe asociar a ciertos tipos de datos.
Teniendo claro lo
anterior, es posible definir que Big Data es sumamente importante para realizar
análisis de información de este tipo, información que cumple con los anteriores
criterios, y esto es debido a que un gran volumen de datos no puede ser
analizado por medio de una base de datos relacional, utilizando los métodos
tradicionales.
Una base de datos
relacional no nos permitirá analizar información con un gran volumen y cuya
estructura y tipo de dato no este normalizado, y es allí donde Big Data ofrece
la solución, ya que trabaja con bases de datos capaces de almacenar y procesar
grandes cantidades de datos y de los tres tipos de datos posibles (estructurados,
semi-estructurados y sin estructurar). Las tecnologías relacionadas con Big
Data incluyen NoSQL bases de datos, Hadoop y MapReduce. Estas tecnologías
forman el núcleo de la plataforma de software de código abierto que soporta el
procesamiento de grandes volúmenes de datos a través de sistemas en clúster.
Beneficios del Big Data
A continuación se
citan los beneficios e inconvenientes más relevantes que han sido extraídos de
un artículo publicado en Eureka-startups (2013) por Vauzza [1]:
1. Gestión
del cambio:
a. Búsqueda
de nuevas oportunidades de negocio a través de segmentación mejorada y venta
cruzada de productos (mejora de la estrategia).
b. Mediante
la aplicación de análisis y modelado predictivo a los datos de cuentas de clientes
e historial de transacción, la solución permite a los agentes llevar a cabo una
segmentación basada en la probabilidad de que el cliente contrate servicios o
productos complementarios, o contratar servicios de mayor valor (mejora de
segmentación).
c. Mediante
el análisis de consumo de los servicios y productos de los clientes, la empresa
puede optimizar las estrategias de venta cruzada, afinar mensajes de marketing
y proporcionar ofertas específicas. Se puede predecir con mayor exactitud qué
productos son los más apropiados para cada cliente (mejora de la estrategia).
d. Ofrecer
la combinación adecuada de servicios y productos mejora la eficacia y la eficiencia
de la fuerza de ventas de la compañía, mientras que el toque más personalizado
ayuda a los agentes a forjar lazos más estrechos con clientes, lo cual mejora
la lealtad (mejora de la estrategia).
e. Mejoras
Operativas: Mayor capacidad de visibilidad del negocio a través de informes más
detallados.
2. Análisis
de navegación web y hábitos de consumo online:
a. Análisis
de Redes Sociales: Determinar los círculos sociales de los clientes a partir de
interacciones telefónicas y redes sociales online genera una visión completa de
los clientes, identificando el papel que desempeñan en sus círculos y su grado
de influencia.
b. Marketing
Viral (marketing que explota redes sociales…): Detecta clientes más influyentes,
roles sociales… para maximizar la difusión de tus productos y servicios (mejor
conocimiento de clientes y del mercado en redes sociales).
c. Análisis
de datos de navegación: Analiza la navegación Web y hábitos de consumo online:
extrae nuevas y valiosas perspectivas de los clientes. Se identifica al usuario
(localización, estado del terminal, servicios de acceso), se monitorizan sitios
y búsquedas por palabra, urls visitadas, tiempo de navegación, etc. (mejor
conocimiento del cliente).
d. Cuadro
de Mandos en tiempo real, la información siempre está disponible sin esperas de
actualización de los datos (información en tiempo real).
3. Anticipación
a los problemas:
a. Un
sistema predictivo de análisis y cruce de datos nos permite poder anticiparnos
a posibles problemas que puede surgir en el futuro, como por ejemplo una
predicción de riesgo de catástrofes que permitiría ajustar la política de
precios y aprovisionar fondos para posibles pagos (utilidad para ver la
veracidad de los datos ante datos imprecisos).
4. Mejoras
de Procesos:
a. Permite
la simplificación de procesos actuales y control del negocio (reducción de
costes).
b. Análisis
de Seguridad. Analítica proactiva que permite la reducción de riesgos y
pérdidas frente a fraudes (reducción de costes).
c. Permite
detectar patrones complejos de fraude en tiempo real analizando los datos
históricos, el patrón de uso de información de geolocalización, análisis de
transacciones y operaciones sospechosas (reducción de costes).
5. Soporte
a la toma de decisiones a través de algoritmos automáticos.
a. Una
analítica sofisticada que analice todos los informes y datos, ayuda a la toma
de decisiones, reduciendo los riesgos y descubre información que antes podría
estar oculta, pero a la vez importante (ayuda a la toma de decisiones).
6. Reducción
de costes.
7. Reducción
de tiempos.
8. Desarrollo
de nuevos productos.
9. Ofertas
optimizadas y personalizadas.
10. Tomas
de decisiones más inteligentes que con los anteriores sistemas Business
Intelligence.
11. Filtros
inteligentes de seguridad en el negocio electrónico
Inconvenientes de Big Data
A pesar de que Big Data es la solución para el manejo
de altos volúmenes de información,
también es necesario saber que existen desventajas:
·
Falta de profesionales
expertos.
·
Dificultad de integración
con los procesos de las empresas
·
Calidad de los datos
·
Comprensión de los
resultados, dando la posibilidad de sacar conclusiones poco acertadas.
·
Problemas de privacidad.
·
Problemas de relevancia
Aplicaciones de Big Data
El Learning
Analytics y el Big Data en educación han sido temas muy recurrentes en
tecnología y en los medios en los últimos años. Ahora, se confirma que estas
dos herramientas de aprendizaje realmente pueden solucionar muchos de los
problemas en nuestros sistemas educativos.
El uso del Big
Data se traduce en una enseñanza más personalizada y centrada en la mejora
constante de los métodos de aprendizaje.
EL Big Data en la
educación permite que se pueda pensar en planteamientos como, ¿Qué pasaría si...
·
instructores y alumnos
pudieran interactuar con el contenido y colaborar entre sí?
·
pudiésemos cuantificar y
visualizar más dimensiones de la formación como la motivación o el esfuerzo?
·
el profesor y los alumnos
recibieran notificaciones y alertas, en función de su actividad?
·
pudiéramos predecir el
rendimiento futuro de un alumno en función de las respuestas
·
pudiéramos personalizar
el proceso de aprendizaje por alumno en función de sus motivaciones o
dificultades?
DEFINICION DE TERMINOS
SUPUESTOS Y EXPECTATIVAS DEL TEMA
ACCESIBILIDAD:
Se refiere a qué tan accesible es el sitio para personas con discapacidades que
también utilizan la Web, como personas ciegas, con problemas de artritis, o que
no ven bien los colores. AJAX: Es una
técnica de desarrollo web para crear aplicaciones interactivas. Siendo posible
realizar cambios sobre las páginas sin necesidad de recargarlas, mejorando la
interactividad, velocidad y usabilidad en las aplicaciones.
AMBARI:
Es una interfaz web que permite implementar y administrar clústers de Apache
Hadoop. Su desarrollo está siendo dirigido por ingenieros de Hortonworoks, que
incluyen en su plataforma de datos “Ambari Hortonworks”.
APACHE KAFKA:
(Desarrollado por LinkedIn). Es un sistema distribuido de publicaciónsuscripción
de mensajería que ofrece una solución capaz de manejar toda la actividad del
flujo de datos y procesar estos datos en un sitio web de gran consumo. Este
tipo de datos (páginas vistas, búsquedas y otras acciones del usuario) son un
ingrediente clave en la web social actual.
AVRO:
Es un sistema de serialización de datos optimizado para Hadoop/MapReduce. Tiene
la ventaja de ser compacto, flexible y admitir varios lenguajes de
programación, lo cual lo posiciona como una alternativa muy buena a los SequenceFiles
(de Hadoop) o ProtoBuf (de Google).
BASE DE DATOS:
es un conjunto de datos pertenecientes a un mismo contexto y almacenados
sistemáticamente para su posterior uso.
BIGTOP:
Es un esfuerzo para crear un proceso más formal o marco de referencia para las
pruebas de paquetización e interoperabilidad de sub-proyectos Hadoop y sus
componentes relacionados, con el objetivo de mejorar la plataforma Hadoop en su
conjunto.
CASSANDRA:
Es una base de datos distribuida desarrollada inicialmente por Facebook.
Diseñada para manejar grandes cantidades de datos distribuidos a través de
servidores commodity, tiene como características un arquitectura de tipo
"key/value", el no tener ningún punto único de fallo (SPOF), un
método de replicación de información basado en "gossip protocol" y la
problemática "eventual consistency".
CHUKWA:
Es un subproyecto dedicado a la carga masiva de varios ficheros texto dentro de
un clúster Hadoop (ETL). Chukwa se construye bajo el sistema de archivos
distribuido (HDFS) y el marco MapReduce y hereda la escalabilidad y robustez de
Hadoop. También incluye un conjunto de herramientas flexible y potente para la
visualización y análisis de los resultados.
DREMEL:
Es un sistema de consultas interactivo para el análisis de datos anidados de
sólolectura. Es una solución ad-hoc escalable, que mediante la combinación de
niveles de múltiples árboles de ejecución y el diseño de columnas de datos, es
capaz de ejecutar consultas sobre tablas de agregación de un billón de filas en
segundos. El sistema escala a miles de CPUs y petabytes de datos, y cuenta con
miles de usuarios en Google.
CLUSTER:
Conjunto de servidores (o nodos) que permiten garantizar la continuidad del
servicio y distribuir la carga de procesamiento/red.
ESTÁNDARES:
Se refiere a qué tan cercano se acerca su sitio a las reglas impuestas por la
W3C y qué tanto se aproxima a los estándares correctos.
FLUME:
Es un marco para aportar datos a Hadoop. Los agentes están poblados de toda la
infraestructura de TI - dentro de los servidores web, servidores de
aplicaciones y dispositivos móviles, para recoger esos datos e integrarlos en
Hadoop.
HAMA:
Es una plataforma de computación distribuida basada en técnicas de computación
paralelas masivas para, por ejemplo, cálculos científicos, matriz, gráfico y
algoritmos de redes.
HBASE:
Es una BBDD NoSQL de baja latencia. Se trata de la versión java opensource de
Hadoop de la famosa BBDD NoSQL de Google: BigTable. Como principales
características podemos destacar: datos almacenados en columnas, sistema de
versioning de los datos, consistencia de las escrituras y lecturas y
recuperación automática en caso de fallos. Ha sido elegido por Facebook, entre
otras cosas, para almacenar todos los correos de los usuarios de la misma
plataforma.
HCATALOG:
Ofrece una capa de abstracción de acceso a los datos. Permite a los usuarios de
Hive, Pig o MapReduce acceder facilmente a cualquier fichero en HDFS sin
preocuparse del formato que puede tener este fichero (sea CSV, SequenceFile,
JSON etc). Se trata de un proyecto inicialmente desarrollado por
Hortonworks.
HDFS:
(Hadoop Distributed File System), la capa de almacenamiento de Hadoop, es un
sistema de fichero distribuido escrito en java, escalable, tolerante a fallos.
Aunque Hadoop pueda funcionar con varios sistemas de ficheros (sistema de
ficheros locales de Linux, GlusterFS, S3 de Amazon...) HDFS se desmarca de
ellos por ser totalmente compatible con MapReduce y ofrecer la optimización de
"localidad de los datos", lo cual lo convierte en la solución
"natural" de Hadoop.
HTML5:
es la última evolución de la norma que define HTML. El término representa dos
conceptos diferentes: Se trata de una nueva versión del lenguaje HTML, con
nuevos elementos, atributos y comportamientos, y un conjunto más amplio de
tecnologías que permite a los sitios Web y las aplicaciones más diversas y de
gran alcance. Este conjunto se le llama HTML5 y amigos y, a menudo reducido a
sólo HTML5.
JAVASCRIPT:
es un lenguaje de programación, se utiliza principalmente del lado del cliente
(es decir, se ejecuta en nuestro ordenador, no en el servidor) permitiendo
crear efectos atractivos y dinámicos en las páginas web. Los navegadores
modernos interpretan el código JavaScript integrado en las páginas web.
JQUERY:
Es una librería de JavaScript que simplifica el scripting en HTML y permite
manipular el CSS directamente; actualmente el 30% de los 10,000 sitios más
populares del mundo lo utilizan y dicho número va en aumento. Es sumamente
dinámico, interactivo y fácil de implementar y existe un arsenal de tutorías u
ejemplos por toda la Web.
MAPREDUCE:
Patrón de arquitectura que permite realizar cálculos en paralelo y, por tanto,
perfectamente adecuado para el tratamiento de bases de datos de gran
tamaño.
MONGODB:
Es un sistema de BBDD NoSQL orientado a documentos de código abierto. Por ser
de tipo documentos, las estructuras de datos se guardan en documentos con un
esquema dinámico, pero siguiendo la notación de JSON. Estas estructuras, que
son denominadas por MongoDB como BSON, son dinámicas, lo que implica que no
exista un esquema predefinido, pudiendo un documento no tener todos los campos
definidos para este documento. Esto supone que la integración de los datos en
ciertas aplicaciones sea más fácil y rápida.
NEO4J:
Es una base de datos de gráficos, de código abierto soportada por Neo
Technology. Neo4j almacena los datos en nodos conectados por relaciones
dirigidas y tipificadas, con las propiedades de ambos, también conocidas como
Gráfico de Propiedad (Property Graph).
OOZIE:
Es un sistema de gestión de WorkFlows (flujos de trabajo) que permite a los
usuarios definir una serie de trabajos escritos en varios lenguajes, como
MapReduce, Pig y Hive, creando entre ellos un flujo de procesos (jobs) con
lógica. Oozie permite a los usuarios especificar, por ejemplo, que una
determinada consulta sólo debe iniciarse después de determinados trabajos
previos en los que se basa para recoger datos que se han completado.
PIG:
Es un lenguaje de programación de alto nivel desarrollado por Yahoo para
facilitar la programación de MapReduce sobre hadoop. Es relativamente fácil de
aprender (ya que es muy expresivo y legible) y es eficiente frente a grandes
flujos de datos.
PHP:
es un lenguaje de código abierto muy popular, adecuado para desarrollo web y
que puede ser incrustado en HTML. Es popular porque un gran número de páginas y
portales web están creadas con PHP. Código abierto significa que es de uso
libre y gratuito para todos los programadores que quieran usarlo. Incrustado en
HTML significa que en un mismo archivo vamos a poder combinar código PHP con
código HTML, siguiendo unas reglas.
R: Es un
lenguaje y un entorno para computación y gráficos estadísticos. Es un proyecto
GNU, que es similar al lenguaje S. R ofrece una gran variedad de estadísticas
(modelos
lineales
y no lineales, tests estadísticos clásicos, análisis de series de tiempo,
clasificación, clustering, ...) y las técnicas gráficas. Además es altamente
extensible.
RIAK:
IEs una BBDD NoSQL inspirada en Dynamo, de código abierto, distribuida y que
cuenta con una versión comercial. BBDD clave-valor con algunos metadatos, sin
esquema de almacenamiento, tipo de datos agnósticos, lenguaje agnóstico que
soporta a través de una api REST y PBC31 varios tipos de lenguaje (Eralng,
Javascript, Java, PHP, Python, Ruby...), masterless ya que todos los nodos son
iguales, escalable, eventualmente consistente y utiliza map/reduce y “link”.
Riak está diseñado para resolver una nueva clase de problemas de gestión de
datos, específicamente los relacionados con la captura, almacenamiento y
procesamiento de datos dentro de entornos TI distribuidos y modernos como la
nube.
SQL/noSQL:
El Structured Query Language es el lenguaje informático más utilizado para
estructurar bases de datos y realizar consultas para extraer la información.
Estos últimos años ha aparecido un nuevo sistema de bases de datos «noSQL», que
se distingue por tener una mayor flexibilidad de las bases de datos y una arquitectura
de cluster
SQOOP:
Es una herramienta de conectividad para mover datos de Hadoop, tales como bases
de datos relacionales y almacenes de datos. Permite a los usuarios especificar
la ubicación de destino dentro de Hadoop e instruir Sqoop para mover datos de
Oracle, Teradata u otras bases de datos relacionales para cumplir el objetivo
marcado.
STORM:
Es un sistema de computación distribuida en tiempo real, libre y de código
abierto, nacido en el seno de Twitter. Storm hace fácil procesar de manera fiable
flujos no estructurados de datos, haciendo en el ámbito del procesamiento en
tiempo real, lo que hizo Hadoop para el procesamiento por lotes.
VOLDEMORT:
Es un sistema de almacenamiento distribuido basado en key-value. Se utiliza en
LinkedIn para ciertos problemas de almacenamiento de alta escalabilidad donde
la partición funcional simple no es suficiente.
ZOOKEEPER: Es un proyecto de software de la Apache
Software Foundation, que provee un servicio de configuración centralizada y
registro de nombres de código abierto para grandes sistemas distribuidos.
ZooKeeper es un subproyecto de Hadoop.
De esta investigación se espera primero que todo demostrar
que se puede implementar mediante herramientas tecnológicas asociadas a Big
Data implementadas en el aplicativo E-dunat que permitan realizar la captura de
datos en tiempo real, de manera sistemática, de diferente naturaleza, y de
forma masiva funcionalidades que permitan a partir de análisis de datos generar
contenidos más dinámicos, precisos y personalizados a cada estudiante según sus
características y resultado de aprendizaje y necesidades de fortalecimiento.
Suponemos que una vez dotado el sistema de
inteligencia y capacidad de análisis se pueda fortalecer el proceso de apoyo de
selección y vocación a los estudiantes en etapas tempranas mediante análisis de
datos como redes sociales entre los más importantes y algoritmos de perforación
de usuarios basados en herramientas Learning Analytics se logre direccionar a
cada alumno de forma más precisa y eficiente en el inicio de su futuro proceso
de aprendizaje.
Una vez
implementadas las herramientas anteriores descritas suponemos en esta
investigación que analizando el comportamiento a mediano y largo plazo de los
estudiantes con el sistema E-dunat y la toma de decisiones por parte del
personal tutorial académico al contrastar los índices de deserción de
estudiantes nuevos y antiguos , estos hayan disminuido de manera significativa
y exponencial con el paso del tiempo , el refinamiento del proceso y el aprovechamiento
de toda la experiencia adquirida de cada grupo anterior en cada periodo
académico aplicado y que los resultados de aprendizaje entre periodos se vea
afectado positivamente tanto en cifra como en calidad y percepción de
acompañamiento y esfuerzo de la universidad hacia los estudiante por hacer su
proceso cada vez más guiado y apoyado sin dejar de lado que se trata de un
proceso de aprendizaje virtual principalmente autónomo.
IMPORTANCIA DEL ESTUDIO (JUSTIFICACIÓN)
El análisis y seguimiento del
aprendizaje es un tema que afecta al profesor como al alumno. Al profesor el
análisis del aprendizaje le ofrece una ventana para ver el compromiso de los
estudiantes en el proceso de aprendizaje y dónde pueden tener obstáculos o
problemas. Mediante las visualizaciones de datos de aprendizaje se pueden
identificar a los estudiantes que no consiguen los resultados, lo que permite
que los profesores investiguen con los respectivos alumnos, e intervengan con
medidas correctivas apropiadas.
Abordar la problemática desde una óptica
interdisciplinar en la cual proporcionar una herramienta que apoye la medición y tomas
de decisiones en diferentes áreas está dirigido a mejorar la estrategia de
enseñanza, el acercamiento de todos los actores y el mejoramiento continuo de
la calidad educativa.
Luchar contra el fenómeno de deserción en nuestra institución
proporcionará mejoras para todos, fortalecimiento y experiencia para nuevas
personas, garantizará mayores recursos para la institución en la medida que se
expanda aún más la cobertura del acceso a la educación superior a las muchas
más personas confiar en la metodología a distancia ofrecida por la universidad.
APORTACIÓN A LA DISCIPLINA , A LA ESCUELA O A LA CARRERA
El aprovechamiento del Learning Analytics no solo está dirigido a la mejora del qué se enseña, cómo se enseña, por qué se emplea determinado recurso y/o estrategia pedagógica o a quién esté dirigido el aprendizaje hecho desde una determinada materia. También va dirigido a los docentes y responsables de las instituciones educativas quienes pueden hacer uso de los datos generados desde las redes sociales, plataformas de enseñanza y otros recursos y dispositivos digitales dispuestos, en la actualidad, para establecer recomendaciones en función de los intereses de enseñanza-aprendizaje. Colombia no puede ni debe dejar perder el tiempo al momento de entrar en este debate desde los diferentes actores vinculados a la educación , El Learning Analytics es algo más que un simple ajuste en torno al análisis del aprendizaje alrededor del proceso de enseñanza-aprendizaje entre docentes y estudiantes, bajo la mediación de las TIC, a través este estudio se busca que se dé la promoción de investigaciones y la generación de contextos de intercambio de datos que ayuden a sacar provecho del Big Data para la mejora de la calidad educativa de nuestro sistema educativo.
Motivar a los investigadores que tengan la experticia teórica en materia educativa a enfocar sus esfuerzos en replantear la forma de enseñar y aprender bajo la mediación de las TIC que se pueda hacer uso de los datos generados desde las redes sociales, plataformas de enseñanza y otros recursos y dispositivos digitales dispuestos, en la actualidad, para establecer recomendaciones en función de los intereses de enseñanza-aprendizaje.
ÍNDICE ESQUEMÁTICO
Motivar a los investigadores que tengan la experticia teórica en materia educativa a enfocar sus esfuerzos en replantear la forma de enseñar y aprender bajo la mediación de las TIC que se pueda hacer uso de los datos generados desde las redes sociales, plataformas de enseñanza y otros recursos y dispositivos digitales dispuestos, en la actualidad, para establecer recomendaciones en función de los intereses de enseñanza-aprendizaje.
ÍNDICE ESQUEMÁTICO
CAPITULO
I
GENERALIDADES
1.1.
INTRODUCCIÓN
1.2.
PLANTEAMIENTO DEL PROBLEMA
1.3.
ANTECEDENTES
1.4.
OBJETIVOS
1.4.1. OBJETIVO GENERAL
1.4.2. OBJETIVOS ESPECÍFICOS
1.5.
PREGUNTAS DE LA INVESTIGACIÓN
1.6.
PROPÓSITOS DE LA INVESTIGACIÓN
1.7.
JUSTIFICACIÓN
1.8.
METODOLOGÍA DE LA INVESTIGACIÓN
CAPITULO II
MARCO
DE REFERENCIA
2.1.
ESTADO DEL ARTE
2.2.
MARCO TEÓRICO
2.2.1. DEFINICIÓN DE TÉRMINOS
BÁSICOS
2.3.
MARCO PRÁCTICO
2.4.
HIPÓTESIS
2.5.
METODOLOGÍA DE LA INVESTIGACIÓN
CAPITULO III
DESARROLLO
DE LA INVESTIGACIÓN
3.1.
ANÁLISIS DE INFRAESTRUCTURA ACTUAL
3.2.
DISEÑO SOLUCIONES TECNOLÓGICAS
3.3.
IMPLEMENTACIÓN SOLUCIÓN TECNOLÓGICA
3.3.1. HARDWARE PROCESAMIENTO DATOS
3.3.2. SOFTWARE BIG DATA RECOPILACIÓN DATOS
3.3.3. SOFTWARE MOTOR ANÁLISIS Y TOMA DE DECISIONES
CAPITULO IIII
RESULTADOS
4.1. ANÁLISIS DE IMPACTO SOLUCIÓN
CONCLUSIONES
LINEAMIENTOS FUTURAS
INVESTIGACIONES
BIBLIOGRAFÍA
ANEXOS
METODOLOGÍA DE LA INVESTIGACIÓN
APOYO BIBLIOGRÁFICO (BIBLIOGRAFÍA)
La investigación a realizar es de carácter explotaría-correlacional ya
que inicialmente se realizará el diseño e implementación de software BIG_Data
sobre el aplicativo E-dunat más específicamente su combinación puede llamarse ANALYTICS
LEARNING TOOLS, tecnología que es ampliamente novedosa y que mundialmente se
encuentra en desarrollo, y localmente (Colombia) está dando sus primeros
inicios tanto en infraestructura como aplicación. Del diseño e implementación
deberá haberse implantado una herramienta que permitirá recoger información
anónima del comportamiento de aprendizaje de los alumnos de la UNAD.
Una vez
implementada la herramienta de recolección de datos iniciales se procedería a
establecer las mejores técnicas de análisis y resumen de datos que permitan
medir características es decir aplicar un método investigativo de observación y
sobre este implementar al programa piloto los avances en temas de generación de
contenido personalizado que guiaría el proceso de aprendizaje en algún periodo
del año sobre algún(os) programas en especial para después ampliar la
implementación a la toda tildad de cursos en general.
La recolección de
la información será entonces mediante la aplicación de la técnica-herramienta
diseñada propiamente que es el software de captura de datos masivos y
generación de contenido dinámico y la respuesta del estudiante con la
interacción a este.
El Proceso de recolección
de datos debería tomar como mínimo dos periodos académicos para que sea
representativo y pueda contrastarse con estuantes sobre los que no se aplicó el
estudio.
Una vez se realiza la recolección de información, debe
tomarse el resultado de seguimiento que hace la UNIVERSIDAD sobre los
estudiantes nuevos y antiguos al final de cada periodo en los que se establece
la continuidad, conformidad y tasa de deserción de nuevos y antiguos por
separado, además de promedios de calificaciones de programas y resultados de
pruebas saber entre otros indicadores que
también resultarían útiles.
Una vez obtenidos los resultados al final del periodo
sobre los cuales deberá poderse distinguir claramente los grupos donde
claramente se distinga cuales entraron en el programa piloto y tuvieron
contacto con la herramienta generada y técnicas aplicadas, podremos despejar y
dar respuesta a el interrogante sobre el cual gira la investigación que sería
saber si aplicando Big-Data para la generación de contenido Personalizado y
seguimiento de aprendizaje, mostrar mediante resultados numéricos , gráficos
para su análisis como histogramas determinar que concluyan si la tasa de
deserción se vio afectada positivamente sobre el grupo que interactuó con la
herramienta generada, si perspectiva y conformidad con la metodología de
aprendizaje de la universidad es a satisfacción y sí los resultados positivos
están directamente relacionados con la implementación de la Tecnología y la
incorporación de ANALYTICS LEARNING sobre E-Dunat.
Data, B. (2013). big data. Lecture Notes in Computer Science, 7968.
Diaz,
P., Jackson, M., & Motz, R. (2015, October). Learning Analytics y
protección de datos personales. Recomendaciones. In Anaisdos
Workshops do Congresso
Brasileiro de Informática na Educação
(Vol.
4, No. 1, p. 981).
Ferrer-Sapena,
A., & Sánchez-Pérez, E. (2013). Open data, big data:
¿hacia dónde nos dirigimos? Anuario ThinkEPI 2013, 7, 150-156.
García Peñalvo, F. J.,
Fidalgo Blanco, Á., Echaluce, S., & Luisa, M. (2015).
Tendencias en innovación educativa.
Tendencias en innovación educativa.
Iglesias-Pradas, S.,
Lacleta, S. E., Luisa, M., Hernández-García, Á.,
García- Peñalvo, F. J., Llorens-Largo, F., ... & Conde-González,
M. Á. (2015). Presentación del artículo “Mirando hacia el futuro:
Ecosistemas tecnológicos de aprendizaje basados en servicios”.
García- Peñalvo, F. J., Llorens-Largo, F., ... & Conde-González,
M. Á. (2015). Presentación del artículo “Mirando hacia el futuro:
Ecosistemas tecnológicos de aprendizaje basados en servicios”.
Lopera, J. O., Smith,
P. M., González, J., & Damas, M. (2015). Ingeniería
de Computadores en la era del Big Data: Computación de altas
prestaciones en clasificación y optimización. Enseñanza
y
aprendizaje de ingeniería de computadores: Revista de
Experiencias Docentes en Ingeniería de Computadores, (5), 17-27
aprendizaje de ingeniería de computadores: Revista de
Experiencias Docentes en Ingeniería de Computadores, (5), 17-27
Mayer-Schönberger,
V., & Cukier, K. (2013). Big data: la revolución
de los datos masivos. Turner.
de los datos masivos. Turner.
Peñalvo, F. J. G.,
& Pardo, A. M. S. (2015). Una revisión actualizada del
concepto de eLearning: décimo Aniversario. Education in the
knowledge society (EKS), 16(1), 119- 144.
concepto de eLearning: décimo Aniversario. Education in the
knowledge society (EKS), 16(1), 119- 144.
Santos, E. D., Rojas,
H. S., & Bain, M. E. (2015, June). Innovación
tecnológica en procesos de EaD: experiencias y retos del
Programa de Educación a Distancia UNPABimodal. In XVII
Workshop de Investigadores en Ciencias de la Computación
(Salta, 2015).
tecnológica en procesos de EaD: experiencias y retos del
Programa de Educación a Distancia UNPABimodal. In XVII
Workshop de Investigadores en Ciencias de la Computación
(Salta, 2015).
Serrano-Cobos, J.
(2014). Big data y analítica web. Estudiar las corrientes
y pescar en un océano de datos. El profesional de la información,
23(6), 561-565.
y pescar en un océano de datos. El profesional de la información,
23(6), 561-565.
Simoes, J., Gimènez,
R., & Planagumà, M. (2015). Big Data y Bases de
Datos Espaciales: un análisis comparativo.
Datos Espaciales: un análisis comparativo.
Toranzo, F. M. (2013). Riesgos en el uso de las redes
sociales. Big Data, 95, 35.
Suscribirse a:
Entradas (Atom)