Ahora es tiempo de ver 10 METODOS DE INVESTIGACION DEL MERCADO.
La primera es "Cadena de Markov"
Una cadena de Márkov es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. "Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros. Es un modelo matemático que trata de predecir un resultado a partir de los que se han obtenido anteriormente. En el marketing se usa para determinar el grado de preferencia de una marca por parte de un grupo de consumidores y la participación del mercado, basándose en un consuma realizado por una muestra de consumidores durante un periodo de tiempo, primeras y segundas compras, se intenta predecir el consumo que realizaran en el futuro. Por ejemplo, esta cadena puede ser utilizada empiezan a funcionar con respecto a las compras futuras de los usuarios.
La segunda es "Teoría Bayesiana"
La inferencia bayesiana es un tipo de inferencia estadística en la que las evidencias u observaciones se emplean para actualizar o inferir la probabilidad de que una hipótesis pueda ser cierta. Se refiere a la probabilidad de un suceso condicionado por la ocurrencia de otro suceso. Más específicamente, con su teorema se resuelve el problema conocido como "de la probabilidad inversa". Esto es, valorar probabilísiticamente las posibles condiciones que rigen supuesto que se ha observado cierto suceso. La estadística Bayesiana fue popularizada en los años 60 por Howard Raiffa para su uso en los ambientes de negocio. Según teoría Bayesiana, los gerentes toman decisiones, y deberían tomar decisiones, basados en un cálculo de las probabilidades de todos los resultados posibles para cada situación. Cuantificando el valor de cada resultado por su probabilidad de ocurrencia y sumando sus totales, los decidores bayesianos calculan los “valores esperados” para una decisión que deba ser tomada. Si el valor esperado es positivo, entonces la decisión debe ser aceptada; si es negativa, debe ser rechazada. Por ejemplo en empresas de servicios ya que funciona otorgando un servicio que la gente compra por primera vez.
La tercera es "El diagrama de pert"
Es un grafo, o sea, un conjunto de punto (nodos) unidos por flechas que representan las relaciones entre las tareas del proyecto, no su distribución temporal. Las flechas del grafo corresponden a las tareas del proyecto y los nodos del grafo, representados por círculos o rectángulos, corresponden a instantes del proyecto. Cada nodo puede representar hasta dos instantes distintos, el inicio mínimo de las tareas que parten del nodo y el final máximo de las tareas que llegan al mismo.
Es una herramienta de cálculo, y una representación visual de las dependencias entre las tareas del proyecto.
La cuarta es "El método de análisis de ruta critica"
Es una técnica para la planeación y dirección de todo tipo de proyecto, consiste en una representación del plan de un proyecto a través de un diagrama de esquemático o red que bosqueja tanto la secuencia y la interrogación de todas las partes componentes de un proyecto, como el análisis lógico y manipulación de dicha red para determinar el mejor programa general de operación.
La quinta es "Disonancia cognoscitiva"
Es un estado de ansiedad mental que se produce cuando aparecen evidencias de que una creencia, decisión o comportamiento propios son incorrectos. No es algo que se disfrute. Desde 1957 se llevan investigando experimentalmente los efectos de estas emociones negativas.
Hay una tendencia en la gente a reaccionar inconscientemente para reducir tal disonancia, para recuperar un equilibrio. Investigaciones recientes demuestran que la disonancia puede ser un obstáculo serio para la apropiada toma de decisiones, ya que se produce un mecanismo curioso: el que la padece se aferra a su primera decisión y elude, minimiza o manipula todo lo que la niega, para reducir el conflicto interno y su disonancia.
En “Why smart executives fail” de Finkelstein, se hablaba de los “zombie businesses”, empresas que sistemáticamente eluden cualquier información que contradiga su visión de la realidad. Así son felices, durante un rato.
La sexta es "Técnicas de simulación"
Desde que los primeros humanos hicieron representaciones de animales y de otros humanos en las cavernas de Lascaux y de Altamira, hace más de veinte mil años, quizás con la esperanza de que los dibujos trazados sobre la gruesa roca les permitieran controlar los próximos movimientos de los animales para poder cazarlos (según la teoría de la magia simpática ), el Homo Sapiens intuyó el gran poder que subyacía en simular situaciones hipotéticas que, recreadas en la imaginación, les permitirían anticipar el siguiente paso del animal, para así tomar ventaja. Sin embargo, los misterios que encierra el arte paleolítico son eso, misterios. Lo que no sucede con las modernas técnicas de simulación, aunque conserven el mismo principio: recrear una situación basada en los criterios que decida el investigador para anticipar escenarios probables, dependiendo de la evolución del sistema. De esta manera, en palabras del profesor José Daniel Muñoz, Director del Grupo de Simulación de Sistemas Físicos de la Universidad Nacional, “La simulación está a medio camino entre la teoría y el experimento”. Así caracteriza Muñoz el conjunto de técnicas que permiten simular y modelar sistemas complejos de las “más diversas áreas de la ciencia y de la técnica”.Este conjunto de técnicas, o métodos de simulación (dinámica molecular, método de Montecarlo, autómatas celulares, para mencionar sólo algunos de los que estudia el grupo de la UN), ofrece al investigador la posibilidad de trabajar sobre universos artificiales en los que sus hipotéticos habitantes se trasforman en entidades, cuyo comportamiento e interrelaciones son descritas a partir del procesamiento de los valores de las variables, los parámetros y las reglas de evolución del sistema, entre otros datos que permiten analizar su situación global y su dinámica en el tiempo. Uno de los criterios fundamentales para llevar a cabo una simulación útil, que permita describir el funcionamiento de un sistema es, claro, definirlo. Así es para el profesor Diógenes Campos, que desarrolló buena parte de su labor investigativa y docente en la Universidad Nacional y actualmente es el Decano de la Facultad de Ciencias Naturales de la Universidad Jorge Tadeo Lozano. Para Campos, lo primero es elegir el sistema que se va a estudiar. Esto automáticamente parcela el universo en dos partes: el sistema y lo que Campos llama el medio ambiente. En el caso del modelo que desarrollamos para virología utilizamos ecuaciones diferenciales ordinarias”.Cabe agregar que, ante la dificultad de experimentar directamente en laboratorio con entidades inabarcables –como un grupo social–, muy pequeñas –como moléculas– o que supongan dificultades logísticas –como la reacción de los cuerpos ante la gravedad cero en la tierra–, la simulación es de gran ayuda, pues posibilita representar las condiciones del sistema y saber cómo funcionaría. Así mismo, el moldeamiento de sistemas físicos permite detectar fallas y errores en los diseños de los experimentos y analizar los resultados de forma segura. Técnicas para cada situación. Según el profesor Álvaro Árenas, de la Escuela de Diseño Industrial de la Universidad Nacional, algunos fenómenos físicos, biológicos y antroposociales son susceptibles de ser simulados y modelados. Arenas, como Director del grupo Complexus de la Universidad Nacional, ha realizado simulaciones de redes sociales, como la de los investigadores de la UN, basado en el paradigma contemporáneo de la complejidad, que permite “conocer la interacción entre los componentes de un sistema. Es decir, permite comprender que el todo es más que la suma de las partes”.De igual forma, para él es clave conocer qué tipo de técnica se ajusta mejor a su simulación. Muñoz cree que estas podrían agruparse en técnicas de simulación, técnicas de moldeamiento y métodos numéricos. En técnicas de simulación se encuentran las ecuaciones diferenciales, los autómatas celulares, la dinámica molecular y el método de Montecarlo, muy útiles en campos tan disímiles como la simulación del tránsito vehicular, el monitoreo de procesos de producción, la caracterización del comportamiento de suelos, arenas, cerámicas y concretos, y la simulación de materiales granulares, entre otros. Con más de doce líneas de investigación, el grupo del profesor Muñoz es un referente en este campo .En las técnicas de moldeamiento se encuentran las redes neuronales y los algoritmos genéticos, entre otras. Estas sirven fundamentalmente para simular redes sociales, propagación de epidemias y otros fenómenos sociales.
La septima es "Análisis de varianza (ANOVA)"
En estadística, el análisis de la varianza o análisis de varianza (ANOVA, según terminología inglesa) es una colección de modelos estadísticos y sus procedimientos asociados, en el cual la varianza esta particionada en ciertos componentes debidos a diferentes variables explicativas. Las técnicas iniciales del analisis de varianza fueron desarrolladas por el estadístico y genetista R. A. Fisher en los años 1920 y 1930s y es algunas veces conocido como Anova de Fisher o analisis de varianza de Fisher, debido al uso de la distribución F de Fisher como parte del contraste de hipótesis.
El análisis de varianza sirve para comparar si los valores de un conjunto de datos numéricos son significativamente distintos a los valores de otro o más conjuntos de datos. El procedimiento para comparar estos valores está basado en la varianza global observada en los grupos de datos numéricos a comparar. Típicamente, el análisis de varianza se utiliza para asociar una probabilidad a la conclusión de que la media de un grupo de puntuaciones es distinta de la media de otro grupo de puntuaciones.
La octaba es "Analisis de regression"
Dentro del método estadístico la técnica mas conocida es el análisis de regresión, conocido también como método de los mínimos cuadrados o análisis de correlación esta es una herramienta estadística que sirve para medir la relación que existe entre una variable dependiente y una o más variable independiente, decir la afinidad que existe ambas variables.
Cuando la relación se da entre una variable dependiente y una variable independiente, se llama regresión simple, si la relación es entre, una variable dependiente y varias variables independientes, se llama regresión múltiple.
La novena es "El Phillips 66"
Es una dinámica de grupos o técnica grupal educativa creada por J. Donald Phillips. Su función es motivar una discusión ordenada entre los participantes y posibilitar un intercambio de puntos de vista. Para su realización un grupo grande se subdivide a su vez en otros grupos formados por seis personas que, a su vez, tratan de dar una respuesta en común en seis minutos al tema propuesto inicialmente. Una vez cumplido el plazo, y con ayuda del dinamizador, se intenta hacer una puesta en común.
El Phillips 66 es una técnica aplicable en adultos y en niños a partir de ciertas edades o niveles.
Consiste en dividir el salón en 6 grupos de 6 personas, las cuales discuten durante 6minutos un tema o problema (previsto o bien que haya surgido como tema durante el desarrollo de la reunión). Seguidamente una persona del grupo se reúne con los otros 5 representantes y vuelve a formar un grupo de 6, que por seis minutos más, discutirán el mismo asunto, hasta que se llegue a una conclusión general. Esta técnica permite que se desarrolle la capacidad de síntesis; contribuye a que se supere el temor a hablar ante compañeros; fomenta el sentido de responsabilidad y estimula la participación de todos los miembros del grupo. Pero para ello, se debe tener en cuenta el siguiente procedimiento.