Metodos y tecnicas

El Método Delphy

El método más primitivo de pronóstico, basado en adivinar. El resultado puede ser calificado de aceptable si la persona que hace la adivinación es un experto en el asunto. Una cosa importante que hay que hacer notar es que la adivinación es el único método que puede hacer uso del conocimiento tácito que el especialista no ha sido capaz de expresar en palabras o cifras exactas. El mejor método para obtener tal pronóstico del experto es la entrevista no estructurada. El método de la entrevista nos permite inquirir sobre las razones y explicaciones para el pronóstico presentado, que podría optar por criticar y así intentar llegar a un pronóstico mejorado. Cuando entrevistamos a un experto puede que también aprendamos algo que más tarde podamos usar si preferimos construir nuestros propios pronósticos con otros métodos.

El método Delphi se utilizó por primera vez durante el apogeo de la Guerra Fría, para encontrar las respuestas a problemas secretos por medio de preguntas a los militares, tales como: ¿cuántas bombas atómicas Soviética sería necesaria para destruir los EEUU? ¿Puede la industria soviética asumir esa fabricación? La votación se llevó a cabo a menudo para obtener una gama más amplia de opiniones con la esperanza de aumentar la precisión de las proyecciones y las previsiones.

Esta metodología requiere de la participación de un grupo de expertos en el tema que se desea indagar. De ellos se espera que puedan dar una opinión fundamentada sobre el comportamiento futuro de un conjunto de variables que definen una situación o sistema de interés. El grupo de expertos debe ser lo más homogéneo posible en cuanto a su composición y sus integrantes deben trabajar en forma individual y en perfecto anonimato.

En al método Delphi, comienza con la preparación de un cuestionario que debe ser elaborado por un panel de especialistas, el cual será entregado a un grupo de expertos en el tema, los cuales deberán dar sus suposiciones sobre el futuro desarrollo del tema. El tema es tratado en el cuestionario en forma de preguntas o hipótesis sobre eventos futuros (introducción de innovaciones de producto o de proceso en el mercado), su fecha de materialización esperada, la capacidad del país para desarrollar dichos eventos, restricciones (económicas, tecnológicas, comerciales) y medidas más importantes para favorecer la materialización del evento. Este cuestionario debe ser respondido de forma anónima en dos o más rondas

En el siguiente paso, el panel que investiga el tema, hace un sumario de todas las respuestas que ha recibido, analizando en cuales, los expertos, están de acuerdo y en cuales no y luego se le envía a cada integrantes del grupo a fin de que ellos puedan revisarlas y comparar sus opiniones con las opiniones de los demás Aquí es cuando el experto puede decidir si cambia de opinión o si la mantiene.

Puesto que es difícil hacer sumarios de algo distinto de respuestas cuantitativas, las preguntas que se usan en el procedimiento Delphi suelen ser cuantitativas, como “¿Cuál será el precio del crudo dentro de 20 años?” Sobre la base de este tipo de respuestas, el investigador será capaz de calcular por ejemplo las medias y los rangos. Una ventaja del método es que siempre se puede usar el rango como una medida de la fiabilidad del pronóstico. Por supuesto, nada impide que se usen preguntas cualitativas o de cualquier otro tipo si la naturaleza del objeto así lo exige.

En una segunda ronda, también se le envía, la información estadística de las respuestas recibidas de la primera ronda, en particular la media o mediana de las respuestas y medidas de dispersión; se pide a los expertos en la primera ronda, sobre todo a los que más disienten con el promedio, que reconsideren sus respuestas. Esta segunda ronda permite reducir la dispersión y obtener un mayor grado de consenso. El número de rondas sucesivas depende del grado de consenso que se persiga. Generalmente en estos ejercicios se usan dos rondas.

Este proceso de retroalimentación de los resultados obtenidos continúa hasta que se cumpla alguna de las dos condiciones siguientes:
• Se alcanza el número máximo de rondas establecido al comienzo del ejercicio.
• Antes de alcanzar el número máximo de rondas se produce la estabilización de las opiniones de los expertos, es decir que cada experto se mantiene firme en su posición.

La clave del éxito en un ejercicio Delphi es la preparación de las preguntas o hipótesis por el panel de especialistas, que debe por tanto ser cuidadosamente elegido. El panel también tiene un papel clave en el análisis de la primera ronda y la preparación del segundo cuestionario. También debe hacer una evaluación de todo el ejercicio Delphi y preparar las conclusiones para el informe final.

Es importante tener en cuenta que durante la realización de un ejercicio Delphi existen tres aspectos críticos:
• formulación adecuada del cuestionario que será suministrado a los expertos;
• correcto procesamiento de la información, en particular el tratamiento de las variables cualitativas
• interpretación adecuada de los resultados.

Por medio de la técnica Delphi se llega a identificar situaciones como las siguientes:
• Futuras tecnologías
• Impacto de las tecnologías de futuro sobre: condiciones de vida, relaciones industriales y condiciones de trabajo
• Mercados de estas tecnologías.

Experimentos mentales

Un buen ejercicio para desarrollar el análisis prospectivo son los experimentos mentales. Aunque los experimentos mentales están encasillados como una técnica propia de los físicos, los filósofos, para descubrir las grandes leyes de la naturaleza, también forma parte de forma indirecta en cualquier análisis sobre el futuro y las tendencias.

El experimento mental consiste en partir de una suposición, ¿Qué pasaría si…? Y a partir de ahí se comienzan a desarrollar escenarios sobre las acciones que se desencadenan a partir de la hipótesis (lo supuesto) hasta llegar a un escenario final en el que se ven las consecuencias finales de esa hipótesis.

Este es un proceso individual donde un especialista en el tema de forma aislada realiza la experimentación y aunque la mayoría prefiere realizarlos acostado de forma relajada otros han preferido realizarlos debajo de una mata de manzana, el caso de Newton, otros como Einstein, quien prefería realizarlos caminando por lugares tranquilos, tampoco han faltado quien ha preferido realizarlos en el baño, como Arquímedes.

Un ejemplo de experimento mental es la sala china.
La Sala china es un experimento mental, propuesto originalmente por John Searle y popularizada por Roger Penrose, por el que se trata de rebatir la validez del Test de Turing y de la creencia de que una máquina puede llegar a pensar. Searle se enfrenta a la analogía entre mente y ordenador cuando se trata de abordar la cuestión de la conciencia. La mente implica no sólo la manipulación de símbolos. Además de una sintaxis, posee una semántica.
Searle y la Inteligencia Artificial Fuerte:
En 1995, cuando Herbert Simon y Allen Newell Simon escribió que “Ahora hay máquinas que leen, aprenden y pueden crear”1 Por lo que se trataba de dar a entender que se había dado una solución al problema mente cuerpo.
Pero Searle en su texto de “Mentes, Cerebros, Ciencia” ataca este pensamiento, y con el experimento de la Habitación China muestra cómo una máquina puede realizar una acción sin siquiera entender lo que hace y el por qué lo hace. Por lo tanto según Searle la lógica usada por las computadoras es nada más que una que no busca el contenido en la acción como la usada por los seres humanos.
El experimento de la habitación china
Supongamos que han pasado muchos años, y que el ser humano ha construido una máquina aparentemente capaz de entender el idioma chino, la cual recibe ciertos inputs (datos de entrada) que le da un hablante natural de ese idioma; estos inputs serían los signos que se le introducen a la computadora, la cual más tarde proporciona una respuesta en su output (dato de salida). Supóngase a su vez que esta computadora fácilmente supera la Prueba de Turing, ya que convence al hablante del idioma chino de que sí entiende completamente el idioma, y por ello el chino dirá que la computadora entiende su idioma.
Ahora Searle nos pide que supongamos que él está adentro de ese computador completamente aislado del exterior, salvo por algún tipo de dispositivo (una ranura para hojas de papel, por ejemplo) por el que pueden entrar y salir textos escritos en chino.
Supongamos también que fuera de la sala o computador está el mismo chino que creyó que la computador entendía su idioma y dentro de esta sala está Searle que no sabe ni una sola palabra en dicho idioma, pero está equipado con una serie de manuales y diccionarios que le indican las reglas que relacionan los caracteres chinos (algo parecido a “Si entran tal y tal caracteres, escribe tal y tal otros”).
De este modo Searle, que manipula esos textos, es capaz de responder a cualquier texto en chino que se le introduzca, ya que tiene el manual con las reglas del idioma, y así hacer creer a un observador externo que él sí entiende chino, aunque nunca haya hablado o leído ese idioma.
Dada esta situación cabe preguntarse:
• ¿Cómo puede Searle responder si no entiende el idioma chino?
• ¿Acaso los manuales saben chino?
• ¿Se puede considerar todo el sistema de la sala (diccionarios, Searle y sus respuestas) como, un sistema que entiende chino?
De acuerdo a los creadores del experimento, los defensores de la inteligencia artificial fuerte -los que afirman que programas de ordenador adecuados pueden comprender el lenguaje natural o poseer otras propiedades de la mente humana, no simplemente simularlas- deben admitir que, o bien la sala comprende el idioma chino, o bien el pasar el test de Turing no es prueba suficiente de inteligencia. Para los creadores del experimento ninguno de los componentes del experimento comprende el chino, y por tanto, aunque el conjunto de componentes supere el test, el test no confirma que en realidad la persona entienda chino, ya que como sabemos Searle no conoce ese idioma. (Tomado de Wikipedia)
Otras técnicas
Técnica de las matrices de impacto cruzado

La técnica de las matrices de impacto cruzado es una de las metodologías de prospectiva más usada por los países europeos. Su lógica consiste en realizar una exploración del futuro sobre la base de la ocurrencia de una serie de eventos que pueden o no ocurrir dentro de un horizonte temporal considerado. En esta técnica evento se define como una hipótesis que puede o no ser cierta, en el sentido en que el evento ocurra o no.

En este sentido, los escenarios futuros que puedan presentarse dependerán de la ocurrencia o no de los eventos visualizados como la base del pronóstico por el grupo de expertos. En otras palabras, la dinámica de los acontecimientos factibles de ocurrir conformará el abanico de los escenarios que describen el futuro posible.

No obstante, no es suficiente con identificar los eventos cuyas combinatorias de ocurrencia definen los escenarios futuros posibles; también es necesario establecer las interrelaciones entre la ocurrencia de unos y otros, es decir el impacto cruzado en las ocurrencias de los mismos.

Es así que debe poder calcularse de qué manera la ocurrencia de un evento (hipótesis) impacta de manera positiva o negativa sobre la ocurrencia de los otros. En lenguaje matemático se habla de probabilidades condicionadas.

Técnica AHP

El Proceso Jerárquico Analítico (en inglés analytical hierarchy process o AHP) es una técnica creada en principio, como una técnica muy adecuada para generar modelos de toma de decisiones en problemas no estructurados, típicos en la gerencia tanto pública como privada. Aunque la AHP es una técnica “focalizada fundamentalmente” como herramienta de apoyo a la toma de decisiones, ha sido impulsada como una técnica que da apoyo también a otros problemas de naturaleza intrínsecamente no estructurada, como la modelación, el análisis de conflicto y el análisis prospectivo.

El objeto conceptual básico de la técnica, como instrumento de modelación, como las llamadas redes jerárquicas o simplemente jerarquías. Una jerarquía es una construcción mental conformado por unos elementos llamados “nodos” y unas “relaciones” de pertenencia o subordinación entre ellos usualmente llamados arcos de la red jerárquica.

Al modelar con esta técnica, sea en un problema de toma de decisiones, en un problema de análisis de conflictos o en un problema de pronóstico o prospectiva, siempre se partirá del nivel cero n(0) en el cual esta el foco: lo que se quiere. Por ejemplo, si se trata de un problema de toma de decisiones, el foco se referirá a la alternativa más conveniente en función de un conjunto dado de criterios, subcriterios, factores, etc. Si se trata de una aplicación relativa a un ejercicio de análisis de conflictos, el foco consistirá en la probabilidad de ocurrencia de las posibles salidas del conflicto. Si se trata de un ejercicio de pronóstico el foco también se referirá a la probabilidad de ocurrencia de los escenarios exploratorios planteados.

Dentro de este contexto, la técnica AHP a diferencia de las otras técnicas de pronóstico y/o prospectiva cualitativas, trabaja en base a un enfoque causal, es decir, identificando los elementos que en forma relevante o significativa son la fuerza motriz o causalidad del futuro que se pretende explorar.

El llamado nivel base, el cual siempre será el último nivel de la red jerárquica formulada, se relaciona con los elementos esenciales del problema en cuestión. Por ejemplo, si la aplicación es referida a un problema de toma de decisiones cada nodo de este nivel está referido a cada una de las alternativas consideradas en el modelo de decisión. Si la aplicación se tratase de un ejercicio de pronostico, por ejemplo, distintos escenarios del comportamiento de los precios del petróleo, entonces los nodos de este nivel estarían representando los distintos escenarios que se contemplan en el ejercicio de pronostico y/o prospectiva.

Análisis morfológico

El análisis morfológico fue concebido como técnica de apoyo al proceso de análisis prospectivo para visualizar tecnologías futuras. En realidad, su aplicación genuina se focaliza en explorar posibilidades para el diseño y desarrollo de nuevas tecnologías de un sistema en particular. No obstante, es perfectamente factible usarla para visualizar escenarios futuros probables en cualquier área de interés, en especial en lo referente a futuros desarrollos económicos, sociales o políticos en una sociedad determinada.

La técnica fue desarrollada por el astrónomo suizo F. Zwicky en sus esfuerzos por descubrir nuevas inversiones en el campo de turbinas para jets. Ha habido múltiples aplicaciones en el campo industrial, con esfuerzos orientados en descubrir nuevas posibilidades tecnológicas. El Tempo Center (perteneciente a la firma General Electric) y el Stanford Research Institute, este último con aplicaciones en los campos de desarrollos políticos y sociales, han desarrollado amplia experiencia en esta metodología.

Como objeto, la técnica persigue explorar todas las posibilidades a que pueda evolucionar un sistema determinado. Para ello, es necesario identificar con gran precisión lo que se denominan los parámetros (variables) caracterizadores del sistema (o tecnología) bajo estudio.

Dentro de este orden de ideas, al Análisis Morfológico le concierne el desarrollo de aplicaciones prácticas, que permitirán descubrir y analizar lo estructural o inter-relaciones morfológicas entre fenómenos, objetos o conceptos. Los resultados obtenidos serán utilizados en la construcción de nuevos sistemas o en la visualización de nuevas formas en los sistemas sociales, económicos y políticos de nuestras sociedades.

Los cinco pasos del método son los siguientes:
• Definición clara y precisa del problema que se quiere tratar, para así proceder a una formulación adecuada y correcta del mismo.
• Identificación de todos los parámetros (variables) caracterizadores del problema en cuestión.
• Construcción de la matriz multidimensional (en inglés suele usarse el término morphological box), la cual debe contener todos los parámetros identificados en el paso 2.
• Todas las soluciones de la caja morfológica multidimensional deberán ser examinadas en términos de su factibilidad, analizadas y evaluadas con respecto a los propósitos que deben ser alcanzados.
• La mejor solución identificada en el paso 4 deberá ser analizada (utilizando otro estudio morfológico), así como su factibilidad de ser materializada en términos de los recursos disponibles.

Árboles de relevancia

La técnica de los árboles de relevancia es un método normativo (es decir que, a partir de un futuro determinado, se retrocede hasta el presente), que tiene sus fundamentos en el análisis de sistemas. Parte de un conjunto de necesidades futuras establecidas, e identifica las acciones tecnológicas requeridas para las mismas. El objetivo es asociar objetivos lejanos con decisiones inmediatas, y es usada para analizar situaciones en las cuales pueden ser identificadas distintos niveles de complejidad o jerárquicos.

El procedimiento se basa en la construcción de un “árbol” jerárquicamente estructurado. En un primer nivel se identifican el o los objetivos más generales, le siguen los niveles estratégicos (globales y sectoriales), luego el táctico (programas), hasta llegar hasta los subsistemas más simples e inmediatos (por ej., proyectos). Para cada nivel se establece un conjunto de criterios de evaluación y ponderaciones cuantitativos. Sobre esta base se construyen matrices que permiten asignar una nota de “relevancia” (un número) para los elementos de cada nivel, y así poder comparar opciones en los niveles de interés

Conceptos: La nanotecnologia
La nanotecnologia es el diseño, caracterización, la producción y la aplicaciones de estructuras, dispositivos y sistemas mediante la regulación de la forma y el tamaño a escala nanometrico. Siendo actualmente la tecnología más codiciada y en la cual se están invirtiendo millones en el mundo entero. La nanotecnologia a pesar de estar en sus inicios ya representa un mercado multimillonario

El tamaño del mercado de la nanoelectrónica era de 1.827 millones de dólares en 2005; se prevé que alcanzará los 4.219 millones en el 2010.
• Los nanoalimentos crecerán a un índice de un 30,94% y en el 2010, alcanzaran un volumen de 20,4 miles de millones de dólares
• El mercado de los textiles que utilizan la nanotecnología se espera que en el 2010 alcance los 115 mil millones de dólares.
• El mercado de las nanoherramientas se proyecta que se incrementará en un 30% anual hasta el 2008, año en que llegará a los 900 millones de dólares, para triplicarse de nuevo, hasta alcanzar los 2,7 mil millones en el 2013.

La nanotecnologia esta permitiendo el desarrollo de materiales mas resistentes y flexibles. Lo cual puede significar un desafió para los productos básicos de los países pobres. Con las investigaciones en nanotecnologia, los materiales tradicionales van a ser reemplazados por materiales más baratos, con más variedad de aplicación y más resistentes. Lo cual sacara del mercado a los productos básicos (tales como el cobre o el níquel) de los países subdesarrollados.

Como consecuencia
• Los nuevos materiales de nanotecnologia podrían desestabilizar los mercados básicos y perturbar el desarrollo del comercio y eliminar puestos de trabajo.
• Los países desarrollados como creadores de nuevas tecnologías están mejor preparados para los cambios que los países pobres que dependen de uno o dos productos básicos
• La nanotecnologia podría permitir a los países desarrollados agregar valor a los productos básicos actuales tales como los medicamentes (nanofarmacologia) y en especial a la biotecnología…

Otro desafilo, es el interés de las grandes corporaciones por patentar los nuevos productos (propiedad intelectual). De todo lo anterior se desprenden las siguientes consecuencias.
• Desarrollo de productos nanotecnologicos que en muchos casos sustituirán productos básicos actuales.
• Patentes de los nuevos productos y con ellos conservar el derecho de producción.
• Los productos nanotecnologicos, en sus inicios no estarán legislados internaciolmente y responderán a los intereses de los desarrollados.

En resumen:
En general la sociedad no esta preparada para las grandes transformaciones que provocara la nanotecnologia así como el papel que desempeñara la propiedad intelectual, ya que decidirá quien va a hacerse del mercado de la nanotecnologia.
Como sabemos la estrategia actual para los productos básicos se basa en reducir los obstáculos comerciales y promover un sistema comercial mas justo, Hacer hincapié únicamente en este aspecto no es suficiente debido al rápido avance de la ciencia y la tecnología (sobre todo la nano) y dada la relación cada vez mas estrecha entre investigación, producción y comercialización, la nanotecnologia será una de las ventajas competitivas mas importante del siglo XXI.

Bibliografía

Puede consultar la bibliografía utilizada para esta lección en:
http://alejandro313.googlepages.com/curso3

Acerca de Alejandro Madruga

Licenciado en Cibernética Matematica. Trabajo el tema de la Inteligencia Artificial desde 1986. He publicado articulos y ensayos sobre la Cibernetica y las tendencias tecnologicas. También he publicados narraciones de ciencia ficción
Esta entrada fue publicada en Tendencias tecnológicas. Guarda el enlace permanente.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s