técnicas de inferencia - angelfire.com · qvista esquemática del proceso de inferencia qsimilar a...
TRANSCRIPT
1
CAPÍTULO 13
Técnicas de Inferencia
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
2
Razonamiento en la inteligencia artificial
El conocimiento debe ser procesado (razonado)La computadora puede acceder al conocimiento por inferenciaMotor de inferencia o programa de controlIntérprete de reglas (en sistemas basados por reglas)Búsqueda directa a través del conocimiento de base
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
3
Como razona la gente y resuelve problemas
Fuentes de poder
Métodos formales (deducción lógica)Razonamiento heurístico (reglas si - entonces)Enfocado al sentido común relacionado con metas más o menos específicasDividir y vencerparalelismo
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
4
Representación AnalogíaSinergiaSerendipity (Suerte)
Lenat (1982)
Fuentes de poder traducidas a razonamiento específico o métodos de inferencia (Tabla 13.1)
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
5
Métodos de razonamiento
Razonamiento deductivoRazonamiento inductivoRazonamiento formalRazonamiento numéricoRazonamiento avanzado
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
6
Razonamiento con lógica
– Modus Ponens– SI A entonces B– [A Y (A → B)] → B – A Y (A → B) es una proposición de un conocimiento
base
– Modus Tollens: cuando se conoce que B es falsa
– Resolución: combina situación, modus ponens, y otros silogismos lógicos
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
7
Inferencia con reglas: Encadenamiento adelante u atrás
– Desechando una regla: Cuando todas las hipótesis se satisfacen (las “if partes”)
– Pueden checar cada regla en la base de conocimiento en cualquier dirección
– Continua hasta que no puede desechar más reglas, o hasta que la meta sea conseguida
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
8
Encadenamiento hacia delante o hacia atrás
– Encadenamiento: Vinculando una serie de reglas pertinentes
– Proceso de búsqueda: Dirigida a las aproximación de reglas
• Encadenamiento hacia delante: Si la premisa proporciona encontrar la solución, entonces los intentos de procesos para afirmar la conclusión
• Encadenamiento hacia atrás: Si la meta actual determina la conclusión correcta, entonces el proceso determina si la premisa proporciona (hechos) la situación
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
9
Encadenamiento hacia atrás
A lo que lleva la meta – Inicia de una conclusión potencial (Hipótesis), entonces buscar evidencia que los apoye (contradicciones)
Con frecuencia implica formular y probar hipótesis intermedios (o subhipótesis)
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
10
Encadenamiento hacia delante
A lo que conducen los datos – inicia de información disponible dada se convierte en disponible; Cuando trata de establecer conclusiones
¿Qué usar?– Si todos los hechos disponibles frente un
encadenamiento hacia delante– Diagnóstico del problema – Encadenamiento hacia
atrás
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
11
El árbol de inferencia
(Árbol de meta o meta lógica)
Vista esquemática del proceso de inferenciaSimilar a un árbol de decisiónInferencia: guía al cómo y por qué de las cosas
Ventajas: guía al cómo y por qué de las cosas
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
12
Inferencia con armazones
Mucho más complicado que el razonamiento con reglasEl espacio proviene de la expectación que conduce al procesamientoLos espacios vacíos pueden ser llenados con datos que confirmen las expectacionesBuscar la confirmación de las expectativasCon frecuencia involucra sustituirlos valores en el espacio
Puede usar reglas y armazonesRazonamiento jerárquico
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
13
Razonamiento basado en el modelo
Basado en el conocimiento de estructura y comportamiento de los dispositivos el programa estádiseñado para entenderEspecialmente útil en el diagnóstico de problemas difícilPuede solucionar algunas de las dificultades del ES basadas en las reglasLos sistemas incluyen un modelo del dispositivo para ser diagnósticos que es usado para identificar la falla del equipoIdentificar la falla del equipoRazonar desde “el principio” (sentido común)Con frecuencia combinado con métodos de representación e inferencia
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
14
El modelo basado en el ES tiende a ser “transportable”
Simular la estructura y función de la maquinaría siendo diagnosticada
La condición necesaria es la creación de un modelo completo y exacto del sistema bajo estudio
Especialmente útil en sistemas reales
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
15
Razonamiento basado en casos (CBR)Adaptar soluciones suele resolver viejos problemas para nuevos problemasVariación – Método regido por la inducción (Capítulo 13)Pero, CBR:– Encuentra casos que resuelve problemas
similares al actual, y– A la solución o soluciones previas para
entrar al problema actual, mientras considera cualquier diferencia entre dos situaciones
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
16
Hallar casos relevantes involucra:
– Caracterizando el problema de entrada, por asignación apropiada a lo que se facciona
– Recuperando los casos con esas facciones– Seleccionar los casos que encuentren la mejor
entrada
– Extremadamente efectivo en casos complejos– Justificación – El pensamiento humano no usa la
lógica (o razonamiento de principios)– Procesa la información correcta recuperada en el
tiempo indicado
– Problema central – identificación de información pertinente cuando sea necesitado uso de guiones
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
17
¿Qué es un Caso?Caso – Define un problema en un lenguaje natural , escribe y responde las preguntas y se asocia con cada situación de negocios propiosEscritos – Describe una secuencia de eventos bien conocidos– Con frecuencia “se aplica un razonamiento de escritura”– Más escritura, menos pensamiento (real)– Puede ser construido de casos históricos– El caso basado en el razonamiento es la esencia de como
la gente razona de la experiencia– CBR – Un razonamiento experto de modelo
sicológicamente es plausibles que un modelo basado en las reglas (Tabla 13.2)
Ventajas de CBR (Tabla 13.3)
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
18
Proceso de razonamiento del caso basado(Figura 13.4)
Índices asignadosRecuperarModificarProbarAsignar y almacenarExplicar, reparar y probar– Tipos de estructuras de conocimiento (óvalos)
– Reglas– Memoria– Matrices– Modificación– Reparación
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
19
Usos CBR, temas y aplicaciones
– Líneas guías (Tabla 13.4)– Dominios de aplicación
• Planeación de aplicación• Análisis político• Valoración de la situación• Planeación legal• Diagnóstico• Detección de fraudes• Configurar/diseñar• Clasificación de mensajes
(Cognitive Systems, Inc.)
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
20
Cuestiones CBR
¿Qué es un caso? ¿Cómo podemos representar el caso?Las reglas de adaptación automática pueden ser muy complejas¿Cómo está organizada la memoria? ¿Qué son las reglas de catalogo?La calidad de los resultados depende mucho¿Cómo funciona la memoria en la recuperación de información relevante?¿Cómo podemo9s organizar los casos de los casos? (grupos)
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
21
¿Cómo podemos diseñar el depósito distribuido de casos?
¿Cómo podemos adaptar viejas soluciones a nuevos problemas?
¿Podemos adaptar simplemente la memoria para cuestionar un contexto eficiente?
¿Qué son los medidores y las reglas similares ser modificadas?
¿Cómo podemos sacar los errores de los casos originales?
¿Cómo podemos aprender de los errores? i.e., ¿Cómo reparamos/actualizamos los casos?
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
22
¿Cómo podemos integrar el CBR con otras representaciones de conocimiento y mecanismos de inferencia?¿Hay mejores patrones de métodos que los que actualmente usamos actualmente?¿Hay sistemas alternativos de recuperación que actualmente usamos?
Desde 1995, aplicaciones en el mundo más real CBR
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
23
La TV pagada ayuda a trabajar en la aplicación del CBR ejemplo
Los nuevos casos son agregados a la librería tal como son encontradasLas definiciones incluyen una serie de preguntas y posibles respuestasSoluciones posibles son encontradas vía árboles de decisión, en modo de resolución de problema
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
24
Construcción de herramientas especiales de CBR
ART*Empresas y CBR Express (Corporación de inferencia)
KATE (Acknosoft)
ReMind (Cognitive Systems Inc.)
Code Advisor (Sentia Software Inc.)
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
25
Explicación y conocimiento metafísico
Explicación– Los humanos expertos justifican y explican sus
acciones– El ES también debería hacerlo– Explicación: El ES hace un intento para clasificar
el razonamiento, recomendaciones, otras a cciones(cuestionándose)
– Facilidad de explicación (el que lo justifica)
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
26
Propuestas de explicación
Hacer el sistema más legibleDescubrir las deficiencias de las reglas y del conocimiento de base (depurando)Explicar situaciones no anticipadasSatisfacer las necesidades sicológicas y/o socialesClarificar los supuestos a trazos de las operaciones del sistemaAnaliza la conducta de la sensitividad
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
27
Reglas en la Técnica de Papel calca
“Por qué” Provee una cadena de razonamientos
La facilidad de una explicación es crítico en ES grandes
El entendimiento depende de la explicación
La explicación es esencial en el ES
Usado para entrenamientosDecision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson
6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
28
Dos explicaciones básicas
Por qué explicar -¿Por qué un hecho ocurrió?Cómo explicar – Como determinar una conclusión aceptada o una recomendación que fue alcanzada.– Algunos sistemas simples – solo al final de la
conclusión– Los sistemas más complejos proveen la cadena
de reglas usada para alcanzar la conclusión
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
29
Otras explicaciones
Facilidades de explicaciones periodísticas– Quién, qué, dónde, cuándo, porqué, y cómo– (“5 Ws” más como)
¿Por qué no?
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
30
Metaconocimiento– Conocimiento sobre el sistema de razonamiento– Conocimiento sobre el conocimiento– Las reglas de inferencia son un caso especial– El meta conocimiento permite al sistema examinar
la operación del conocimiento declarativo y procesal– En un conocimiento base– La explicación puede ser vista como otro aspecto
de metaconocimiento– Después de un tiempo el metaconocimiento permitirá
al ES crear la razón detrás de las reglas desde sus principios
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
31
Generando explicaciones
– Explicación estática: inserta piezas de textos en inglés (escritos) en el programa
– Explicación dinámica: explicación reconstruida deacuerdo a la ejecución del patrón de regla
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
32
Tipología de las explicaciones ES
– Rastro o línea, razonamiento
– Justificación – descripción explicita de un argumento causal o racional detrás de cada paso inferencial
– Estrategia – alto nivel de estructura de una meta que determina como el uso de ES domina su conocimiento para completar tareas o meta conocimiento
Ye y Johnson (1995)
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
33
Inferencia con inseguridad
Inseguridad en la AI – Procesos de tres pasos (Figure 13.5)
1. Un experto provee un conocimiento inexacto en términos de reglas con probabilidad de valores
2. El conocimiento inexacto de la serie básica de eventos puede ser usada directamente para establecer inferencias en casos simples (´Paso 3)
3. Trabajando con el motor de inferencia, los expertos pueden ajustar el paso 1 entrada después de ver los resultados en los pasos 2 y 3.
– En el paso 2: con frecuencia varios eventos son interrelacionados
– Es necesario combinar la información proveída en el paso 1 a un valor global para el sistemaDecision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson
6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
34
Más métodos de integración: Probabilidades de Bayes teoría de evidencia, factores de seguridad y una serie de factores borrosos
La inseguridad es un problema serio
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
35
Representando la inseguridad
Numérico
Gráfico
Simbólico
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
36
Representación de la nseguridadnumérica
Escala (0-1, 0-100)– 0 = inseguridad completa – 1 or 100 = seguridad completa
Problemas con tendencias cognoscitivasLa gente puede ser inconsistente en veces diferentes
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
37
Gráficos y diagramas de influencia
– Barras horizontales (F5)
– Notan exacto como los números
– Los expertos pueden no tener experiencia en el mercado de gráficos a escala
– Muchos expertos prefieren clasificar los gráficos o métodos numéricos
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
38
Representación simbólica de inseguridad
Varias formas de representar la inseguridad– Una aproximación a escala
• Rango• Ordinal• Cardinal• Lógica a la par (Proceso jerárquico analítico)
– La lógica incluye una representación simbólica especial combinada con números
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
39
Probabilidades y aproximaciones relacionadas
La razón de probabilidadP(X) = El número de resultados favorece la ocurrencia de X/ el número total de resultadosMúltiples valores de probabilidad en muchos sistemas– Antecedentes par tres (probabilidades: 0.9, 0.7, y 0.65)– La probabilidad total:
P = (0.9)(0.7)(0.65) = 0.4095
Algunas veces una regla se refiere a otras – Las probabilidades pueden propagarse de un a otro
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
40
Varias aproximaciones para combinar probabilidades
– Las probabilidades pueden ser • Multiplicadas (une las probabilidades)• Promediado (simple o promedio pesado)• Valor más alto• Valor más bajo
– Las reglas y eventos son considerados independientes de algún otro
– Si depende – Usa la extensión del teorema de Bayes
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
41
La extensión de Bayes
El teorema de Bayes combina evidencia nueva y existente usualmente dado como probabilidades subjetivasRevisión previa de probabilidades basadas en información nueva
Basada en probabilidades subjetivas; una probabilidad subjetiva está dada por cada proposición
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
42
Dos deficiencias mayores– El valor sencillo no nos dice sobre su precisión
– El valor sencillo cambia la evidencia y contrapone una proposición sin indicar cuanto hay individualmente
– La probabilidad subjetiva expresa el grado de creencia o que tan fuerte es un valor o una situación es verdad
– El teorema de Bayes aproxima, con o sin nueva evidencia, puede ser localizada como una cadena
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
43
Teorema de evidencia de Demspter -Shafer
– Distingue entre la inseguridad e ignorancia para crear funciones de creencia
– Especialmente apropiado para combinar opiniones de expertos a diferencia de opiniones con cierto grado de ignorancia
– Asumir que las fuentes de información son combinadas y son estáticamente independientes
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
44
Teoría de la seguridad (Factores de seguridad)
– Factores de seguridad y creencias – La inseguridad está representado como un grado
de creencia– Expresa la medida de la creencia– Manipula grados de creencia mientras usa sistemas
basados en el conocimiento
– La teoría de la seguridad usa factores de seguridad
– Los factores de seguridad (CF) expresan la creencia en un evento basado en la evidencia (para hechos o hipótesis) (o la valoración del experto)
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
45
Varios métodos del uso de los factores de seguridad manejando la seguridad en los sistemas de conocimiento basado– 1.0 o 100 = verdad absoluta (completa confianza)
– 0 = cierta falsedad
Los CF no son probabilidades Los CF no necesitan sumar 100
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
46
Creencia e inseguridad
CF[P,E ] = MB[P,E] - MD[P,E] donde
– CF = factor de inseguridad– MB = medida de la creencia– MD = midiendo la incredulidad– P = probabilidad– E = evidencia o evento
Otra toma - El conocimiento contiene reglas que son más importantes que el álgebra de confianzas que tiene junto el sistema
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
47
Combinar factores de seguridadDeben saber como usar las CF (Apéndice 15-A)
Combinar varios factores de seguridad
Y, O
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
48
Y
– SI la inflación es alta, CF = 50%, (A), Y– SI la razón desempleados está sobre el 7%, CF = 70 %, (B),
Y– SI el bono declina, CF = 100%, (C)– ENTONCES la existencia de precios declina
CF(A, B, y C) = Mínimo[CF(A), CF(B), CF(C)] El CF para “la existencia de precios declina” = 50 %La cadena es tan fuerte como su vínculo fuerte
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
49
O
SI la inflación es baja, CF = 70 %; O
SI el bono es alto, CF = 85 %;ENTONCES la existencia de precios será alta
Sólo uno SI necesita ser verdad La conclusión tiene un CF con el máximo de dos
– CF (A o B) = Máximo [CF (A), CF (B)]
CF = 85 % para existencia de precios es alto
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
50
Combinar dos o más reglas
Ejemplo:– R1: SI la inflación es menos del 5%,
ENTONCES la existencia de preciso en el mercado crece (CF = 0.7)
– R2: SI el nivel de desempleo es menos del 7%,ENTONCES la existencia de precios en el mercado crece (CF = 0.6)
Inflación = 4% y el nivel de desempleo = 6.5%Efecto combinado– CF(R1,R2) = CF(R1) + CF(R2)[1 - CF(R1)]; o– CF(R1,R2) = CF(R1) + CF(R2) - CF(R1) × CF(R2)
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
51
Asumir una relación independiente entre las reglas
Ejemplo: Dado CF(R1) = 0.7 AND CF(R2) = 0.6, entonces: CF(R1,R2) = 0.7 + 0.6(1 - 0.7) = 0.7 + 0.6(0.3) = 0.88
El ES nos dice que hay un 88% de oportunidad que crezca la existencia de precios
Para que sea agregada un regla– CF(R1,R2,R3) = CF(R1,R2) + CF(R3) [1 - CF(R1,R2)]
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ
52
La tercera reglaR3: SI el bono crece,ENTONCES, la existencia de precios crece (CF = 0.85)
Asumiendo todas las reglas que son verdad en su parte SI, la oportunidad de que la existencia de precios crezca
– CF(R1,R2,R3) = 0.88 + 0.85 (1 - 0.88) = 0.88 + 0.85 (.12) = 0.982
Decision Support Systems and Intelligent Systems, Efraim Turban and Jay E. Aronson6th ed, Copyright 2001, Prentice Hall, Upper Saddle River, NJ