En informática , un conjunto aproximado , descrito por primera vez por el informático polaco Zdzisław I. Pawlak , es una aproximación formal de un conjunto nítido (es decir, conjunto convencional) en términos de un par de conjuntos que dan la aproximación inferior y superior de la conjunto original. En la versión estándar de la teoría de conjuntos aproximados (Pawlak 1991), los conjuntos de aproximación inferior y superior son conjuntos nítidos, pero en otras variaciones, los conjuntos aproximados pueden ser conjuntos difusos .
Definiciones
La siguiente sección contiene una descripción general del marco básico de la teoría de conjuntos aproximada, como lo propuso originalmente Zdzisław I. Pawlak , junto con algunas de las definiciones clave. Se pueden encontrar propiedades y límites más formales de conjuntos aproximados en Pawlak (1991) y referencias citadas. La teoría inicial y básica de los conjuntos aproximados a veces se denomina " conjuntos aproximados de Pawlak" o "conjuntos aproximados clásicos" , como un medio para distinguir de las ampliaciones y generalizaciones más recientes.
Marco del sistema de información
Dejar ser un sistema de información (sistema atributo-valor ), donde es un conjunto finito no vacío de objetos (el universo) y es un conjunto finito no vacío de atributos tal que para cada . es el conjunto de valores que atribuyen puede tomar. La tabla de información asigna un valor de a cada atributo y objeto En el universo .
Con cualquier hay una relación de equivalencia asociada :
La relación se llama un -relación de indiscernibilidad . La partición dees una familia de todas las clases de equivalencia de y se denota por (o ).
Si , luego y son indiscernibles (o indistinguibles) por atributos de .
Las clases de equivalencia del -relación de indiscernibilidad se denotan .
Ejemplo: estructura de clase de equivalencia
Por ejemplo, considere la siguiente tabla de información:
Ejemplo de sistema de información Objeto 1 2 0 1 1 1 2 0 1 1 2 0 0 1 0 0 0 1 2 1 2 1 0 2 1 0 0 1 2 2 2 0 0 1 0 0 1 2 2 1 2 1 0 2 2 2 0 0 1 0
Cuando el conjunto completo de atributos se considera, vemos que tenemos las siguientes siete clases de equivalencia:
Por lo tanto, los dos objetos dentro de la primera clase de equivalencia, , no se pueden distinguir entre sí en función de los atributos disponibles, y los tres objetos dentro de la segunda clase de equivalencia, , no se pueden distinguir entre sí en función de los atributos disponibles. Los cinco objetos restantes son cada uno discernible de todos los demás objetos.
Es evidente que diferentes selecciones de subconjuntos de atributos conducirán en general a diferentes clases de indiscernibilidad. Por ejemplo, si atributo solo se selecciona, obtenemos la siguiente estructura de clases de equivalencia, mucho más burda:
Definición de un conjunto aproximado
Dejar ser un conjunto de objetivos que deseamos representar utilizando un subconjunto de atributos ; es decir, se nos dice que un conjunto arbitrario de objetos comprende una sola clase, y deseamos expresar esta clase (es decir, este subconjunto) usando las clases de equivalencia inducidas por el subconjunto de atributos . En general, no se puede expresar exactamente, porque el conjunto puede incluir y excluir objetos que son indistinguibles sobre la base de atributos .
Por ejemplo, considere el objetivo establecido y deje el subconjunto de atributos , el conjunto completo de funciones disponibles. El conjunto no se puede expresar exactamente, porque en , objetos son indiscernibles. Por tanto, no hay forma de representar ningún conjuntoque incluye pero excluye objetos y .
Sin embargo, el objetivo establecido se puede aproximar utilizando solo la información contenida en construyendo el -bajo y -Aproximaciones superiores de :
Aproximación más baja y región positiva
La -Aproximación inferior , o región positiva , es la unión de todas las clases de equivalencia en que están contenidos por (es decir, son subconjuntos de) el conjunto de destino - en el ejemplo, , la unión de las dos clases de equivalencia en que están contenidos en el conjunto de objetivos. La aproximación más baja es el conjunto completo de objetos enque pueden clasificarse positivamente (es decir, sin ambigüedades) como pertenecientes al conjunto de objetivos.
Aproximación superior y región negativa
La -Aproximación superior es la unión de todas las clases de equivalencia en que tienen una intersección no vacía con el conjunto de destino, en el ejemplo, , la unión de las tres clases de equivalencia en que tienen una intersección no vacía con el conjunto de destino. La aproximación superior es el conjunto completo de objetos que enque no se puede clasificar positivamente (es decir, sin ambigüedades) como pertenecientes al complemento () del conjunto de objetivos . En otras palabras, la aproximación superior es el conjunto completo de objetos que posiblemente sean miembros del conjunto objetivo..
El conjunto por lo tanto, representa la región negativa , que contiene el conjunto de objetos que pueden descartarse definitivamente como miembros del conjunto de destino.
Región límite
La región límite , dada por la diferencia de conjuntos, consiste en aquellos objetos que no se pueden descartar ni descartar como miembros del conjunto de objetivos. .
En resumen, la aproximación más baja de un conjunto objetivo es una aproximación conservadora que consta solo de aquellos objetos que pueden identificarse positivamente como miembros del conjunto. (Estos objetos no tienen "clones" indiscernibles que estén excluidos por el conjunto de objetivos.) La aproximación superior es una aproximación liberal que incluye todos los objetos que podrían ser miembros del conjunto de objetivos. (Algunos objetos en la aproximación superior pueden no ser miembros del conjunto de destino). Desde la perspectiva de, la aproximación inferior contiene objetos que son miembros del conjunto objetivo con certeza (probabilidad = 1), mientras que la aproximación superior contiene objetos que son miembros del conjunto objetivo con probabilidad distinta de cero (probabilidad> 0).
El conjunto áspero
La tupla compuesto por la aproximación inferior y superior se denomina conjunto aproximado ; por lo tanto, un conjunto aproximado se compone de dos conjuntos nítidos, uno que representa un límite inferior del conjunto objetivo, y el otro representa un límite superior del conjunto de objetivos.
La precisión de la representación aproximada del conjunto. puede darse (Pawlak 1991) de la siguiente manera:
Es decir, la precisión de la representación del conjunto aproximado de , , , es la razón del número de objetos que se pueden colocar positivamente enal número de objetos que posiblemente se pueden colocar en- esto proporciona una medida de qué tan cerca se aproxima el conjunto aproximado al conjunto objetivo. Claramente, cuando las aproximaciones superior e inferior son iguales (es decir, la región del límite está vacía), entonces, y la aproximación es perfecta; en el otro extremo, siempre que la aproximación inferior esté vacía, la precisión es cero (independientemente del tamaño de la aproximación superior).
Análisis objetivo
La teoría de conjuntos aproximados es uno de los muchos métodos que se pueden emplear para analizar sistemas inciertos (incluidos los vagos), aunque menos común que los métodos más tradicionales de probabilidad , estadística , entropía y teoría de Dempster-Shafer . Sin embargo, una diferencia clave y una fortaleza única de utilizar la teoría clásica de conjuntos aproximados es que proporciona una forma objetiva de análisis (Pawlak et al. 1995). A diferencia de otros métodos, como los dados anteriormente, el análisis de conjuntos aproximados clásico no requiere información adicional, parámetros externos, modelos, funciones, calificaciones o interpretaciones subjetivas para determinar la pertenencia al conjunto; en su lugar, solo utiliza la información presentada dentro de los datos dados (Düntsch y Gediga 1995 ). Las adaptaciones más recientes de la teoría de conjuntos aproximados, como los conjuntos aproximados basados en dominancia, la teoría de decisiones y los conjuntos aproximados difusos, han introducido más subjetividad en el análisis.
Definibilidad
En general, las aproximaciones superior e inferior no son iguales; en tales casos, decimos que el objetivo establecidoes indefinible o más o menos definible en el conjunto de atributos. Cuando las aproximaciones superior e inferior son iguales (es decir, el límite está vacío),, luego el objetivo establecido es definible en el conjunto de atributos. Podemos distinguir los siguientes casos especiales de indefinibilidad:
- Colocar es internamente indefinible si y . Esto significa que en el conjunto de atributos, no hay objetos de los que podamos estar seguros que pertenezcan al conjunto de destino, Pero no son objetos que podemos excluir definitivamente del conjunto.
- Colocar es externamente indefinible si y . Esto significa que en el conjunto de atributos, No son objetos que podemos estar seguros pertenecen a meta establecida, pero no hay objetos que podamos excluir definitivamente del conjunto.
- Colocar es totalmente indefinible si y . Esto significa que en el conjunto de atributos, no hay objetos de los que podamos estar seguros que pertenezcan al conjunto de destino, y no hay objetos que podamos excluir definitivamente del conjunto. Por lo tanto, en el conjunto de atributos, no podemos decidir si algún objeto es, o no, miembro de .
Reducir y core
Una pregunta interesante es si hay atributos en el sistema de información (tabla de valor-atributo) que son más importantes para el conocimiento representado en la estructura de clases de equivalencia que otros atributos. A menudo, nos preguntamos si existe un subconjunto de atributos que puedan, por sí mismos, caracterizar completamente el conocimiento en la base de datos; tal conjunto de atributos se llama reducto .
Formalmente, un reducto es un subconjunto de atributos. tal que
- = , es decir, las clases de equivalencia inducidas por el conjunto de atributos reducido son los mismos que la estructura de clases de equivalencia inducida por el conjunto de atributos completo .
- el conjunto de atributos es mínimo , en el sentido de que para cualquier atributo ; en otras palabras, no se puede eliminar ningún atributo del conjunto sin cambiar las clases de equivalencia .
Se puede pensar en un reducto como un conjunto suficiente de características, es decir, suficiente para representar la estructura de categorías. En la tabla de ejemplo anterior, conjunto de atributos es una reducción: el sistema de información proyectado solo en estos atributos posee la misma estructura de clases de equivalencia que la expresada por el conjunto de atributos completo:
Conjunto de atributos es una reducción porque la eliminación de cualquiera de estos atributos provoca un colapso de la estructura de clases de equivalencia, con el resultado de que .
La reducción de un sistema de información no es única : puede haber muchos subconjuntos de atributos que preservan la estructura de clases de equivalencia (es decir, el conocimiento) expresada en el sistema de información. En el ejemplo de sistema de información anterior, otra reducción es, produciendo la misma estructura de clases de equivalencia que .
El conjunto de atributos que es común a todos los reductos se denomina núcleo : el núcleo es el conjunto de atributos que posee cada reducto y, por lo tanto, consta de atributos que no pueden eliminarse del sistema de información sin provocar el colapso de la clase de equivalencia. estructura. El núcleo puede ser pensado como el conjunto de necesarios atributos - es necesario, que es, para la estructura de la categoría de ser representado. En el ejemplo, el único atributo de este tipo es; cualquiera de los otros atributos puede eliminarse individualmente sin dañar la estructura de clases de equivalencia y, por lo tanto, todos son prescindibles . Sin embargo, quitandopor sí mismo no cambiar la estructura de clase de equivalencia, y por lo tantoes el atributo indispensable de este sistema de información y, por tanto, el núcleo.
Es posible que el núcleo esté vacío, lo que significa que no hay ningún atributo indispensable: cualquier atributo en un sistema de información de este tipo puede eliminarse sin alterar la estructura de clases de equivalencia. En tales casos, no hay ningún atributo esencial o necesario que se requiera para que se represente la estructura de clases.
Dependencia de atributos
Uno de los aspectos más importantes del análisis de bases de datos o la adquisición de datos es el descubrimiento de dependencias de atributos; es decir, deseamos descubrir qué variables están estrechamente relacionadas con qué otras variables. En general, son estas sólidas relaciones las que justificarán una mayor investigación y, en última instancia, serán de utilidad en el modelado predictivo.
En la teoría de conjuntos aproximada, la noción de dependencia se define de manera muy simple. Tomemos dos conjuntos (disjuntos) de atributos, establezca y establecer e indague qué grado de dependencia existe entre ellos. Cada conjunto de atributos induce una (indiscernibilidad) estructura de clases de equivalencia, las clases de equivalencia inducidas por dada por , y las clases de equivalencia inducidas por dada por .
Dejar , dónde es una clase de equivalencia dada de la estructura de clase de equivalencia inducida por el conjunto de atributos . Entonces, la dependencia del conjunto de atributos en conjunto de atributos , , es dado por
Es decir, para cada clase de equivalencia en , sumamos el tamaño de su aproximación más baja por los atributos en , es decir, . Esta aproximación (como arriba, para un conjunto arbitrario) es el número de objetos que en el conjunto de atributos puede identificarse positivamente como perteneciente al conjunto de objetivos . Agregado en todas las clases de equivalencia en, el numerador anterior representa el número total de objetos que, según el conjunto de atributos - se puede categorizar positivamente de acuerdo con la clasificación inducida por atributos . Por tanto, la relación de dependencia expresa la proporción (dentro de todo el universo) de tales objetos clasificables. La dependencia "se puede interpretar como una proporción de tales objetos en el sistema de información para la cual es suficiente conocer los valores de los atributos en para determinar los valores de los atributos en ".
Otra forma intuitiva de considerar la dependencia es tomar la partición inducida por Q como la clase objetivo C, y considerar P como el conjunto de atributos que deseamos usar para "reconstruir" la clase objetivo C. Si P puede completamente reconstruir C, entonces Q depende totalmente de P; si P da como resultado una reconstrucción pobre y quizás aleatoria de C, entonces Q no depende en absoluto de P.
Por tanto, esta medida de dependencia expresa el grado de dependencia funcional (es decir, determinista) del conjunto de atributos en conjunto de atributos ; es no simétrica. La relación de esta noción de dependencia de atributos con nociones más tradicionales de la teoría de la información (es decir, entrópica) de dependencia de atributos se ha discutido en varias fuentes (p. Ej., Pawlak, Wong y Ziarko 1988; Yao y Yao 2002; Wong, Ziarko Y Ye 1986, Quafafou y Boussouf 2000).
Extracción de reglas
Las representaciones de categorías discutidas anteriormente son todas de naturaleza extensional ; es decir, una categoría o clase compleja es simplemente la suma de todos sus miembros. Representar una categoría es, entonces, solo poder listar o identificar todos los objetos que pertenecen a esa categoría. Sin embargo, las representaciones de categoría extensional tienen un uso práctico muy limitado, porque no proporcionan información para decidir si los objetos nuevos (nunca antes vistos) son miembros de la categoría.
Lo que generalmente se desea es una descripción intencional de la categoría, una representación de la categoría basada en un conjunto de reglas que describen el alcance de la categoría. La elección de tales reglas no es única, y ahí radica la cuestión del sesgo inductivo . Consulte Espacio de versión y Selección de modelo para obtener más información sobre este problema.
Hay algunos métodos de extracción de reglas. Partiremos de un procedimiento de extracción de reglas basado en Ziarko y Shan (1995).
Matrices de decisión
Digamos que deseamos encontrar el conjunto mínimo de reglas consistentes ( implicaciones lógicas ) que caracterizan nuestro sistema muestral. Para un conjunto de atributos de condición y un atributo de decisión , estas reglas deben tener la forma , o, deletreado,
dónde son valores legítimos de los dominios de sus respectivos atributos. Esta es una forma típica de las reglas de asociación , y el número de elementos enque coinciden con la condición / antecedente se denomina soporte de la regla. El método para extraer tales reglas dado en Ziarko & Shan (1995) es formar una matriz de decisión correspondiente a cada valor individual del atributo de decisión . De manera informal, la matriz de decisiones para el valor del atributo de decisión enumera todos los pares de atributo-valor que difieren entre los objetos que tienen y .
Esto se explica mejor con un ejemplo (que también evita mucha notación). Considere la tabla de arriba y deje ser la variable de decisión (es decir, la variable del lado derecho de las implicaciones) y dejar ser las variables de condición (en el lado izquierdo de la implicación). Observamos que la variable de decisión toma dos valores diferentes, a saber . Tratamos cada caso por separado.
Primero, miramos el caso y nos dividimos en objetos que tienen y los que tienen . (Tenga en cuenta que los objetos con en este caso son simplemente los objetos que tienen , pero en general, incluiría todos los objetos que tengan algún valor para otro que , y puede haber varias de estas clases de objetos (por ejemplo, los que tienen ).) En este caso, los objetos que tienen están mientras que los objetos que tienen están . La matriz de decisiones para enumera todas las diferencias entre los objetos que tienen y los que tienen ; es decir, la matriz de decisiones enumera todas las diferencias entre y . Ponemos los objetos "positivos" () como las filas y los objetos "negativos" como las columnas.
Matriz de decisiones para Objeto
Para leer esta matriz de decisiones, mire, por ejemplo, en la intersección de la fila y columna , mostrando en la celda. Esto significa que con respecto al valor de decisión, objeto difiere del objeto en atributos y , y los valores particulares de estos atributos para el objeto positivo están y . Esto nos dice que la clasificación correcta de como perteneciente a la clase de decisión se basa en atributos y ; aunque uno o el otro podría ser prescindible, sabemos que al menos uno de estos atributos es en prescindible.
A continuación, de cada matriz de decisión formamos un conjunto de expresiones booleanas , una expresión para cada fila de la matriz. Los elementos dentro de cada celda se agregan de forma disyuntiva, y las celdas individuales se agregan de manera conjunta. Por lo tanto, para la tabla anterior tenemos las siguientes cinco expresiones booleanas:
Cada declaración aquí es esencialmente una regla muy específica (probablemente demasiado específica) que gobierna la membresía en la clase.del objeto correspondiente. Por ejemplo, la última declaración, correspondiente al objeto, establece que se deben cumplir todos los siguientes requisitos:
- Ya sea debe tener el valor 2, o debe tener el valor 0 o ambos.
- debe tener valor 0.
- Ya sea debe tener el valor 2, o debe tener el valor 0 o ambos.
- Ya sea debe tener el valor 2, o debe tener el valor 0, o debe tener el valor 0, o cualquier combinación de los mismos.
- debe tener valor 0.
Está claro que aquí hay una gran cantidad de redundancia, y el siguiente paso es simplificar el uso del álgebra booleana tradicional . La declaración correspondiente a objetos simplifica a , que produce la implicación
Asimismo, la declaración correspondiente a objetos simplifica a . Esto nos da la implicación
Las implicaciones anteriores también se pueden escribir como el siguiente conjunto de reglas:
It can be noted that each of the first two rules has a support of 1 (i.e., the antecedent matches two objects), while each of the last two rules has a support of 2. To finish writing the rule set for this knowledge system, the same procedure as above (starting with writing a new decision matrix) should be followed for the case of , thus yielding a new set of implications for that decision value (i.e., a set of implications with as the consequent). In general, the procedure will be repeated for each possible value of the decision variable.
LERS rule induction system
The data system LERS (Learning from Examples based on Rough Sets) Grzymala-Busse (1997) may induce rules from inconsistent data, i.e., data with conflicting objects. Two objects are conflicting when they are characterized by the same values of all attributes, but they belong to different concepts (classes). LERS uses rough set theory to compute lower and upper approximations for concepts involved in conflicts with other concepts.
Rules induced from the lower approximation of the concept certainly describe the concept, hence such rules are called certain. On the other hand, rules induced from the upper approximation of the concept describe the concept possibly, so these rules are called possible. For rule induction LERS uses three algorithms: LEM1, LEM2, and IRIM.
The LEM2 algorithm of LERS is frequently used for rule induction and is used not only in LERS but also in other systems, e.g., in RSES (Bazan et al. (2004). LEM2 explores the search space of attribute-value pairs. Its input data set is a lower or upper approximation of a concept, so its input data set is always consistent. In general, LEM2 computes a local covering and then converts it into a rule set. We will quote a few definitions to describe the LEM2 algorithm.
The LEM2 algorithm is based on an idea of an attribute-value pair block. Let be a nonempty lower or upper approximation of a concept represented by a decision-value pair . Set depends on a set of attribute-value pairs if and only if
Set is a minimal complex of if and only if depends on and no proper subset of exists such that depends on . Let be a nonempty collection of nonempty sets of attribute-value pairs. Then is a local covering of if and only if the following three conditions are satisfied:
each member of is a minimal complex of ,
- is minimal, i.e., has the smallest possible number of members.
For our sample information system, LEM2 will induce the following rules:
Other rule-learning methods can be found, e.g., in Pawlak (1991), Stefanowski (1998), Bazan et al. (2004), etc.
Datos incompletos
Rough set theory is useful for rule induction from incomplete data sets. Using this approach we can distinguish between three types of missing attribute values: lost values (the values that were recorded but currently are unavailable), attribute-concept values (these missing attribute values may be replaced by any attribute value limited to the same concept), and "do not care" conditions (the original values were irrelevant). A concept (class) is a set of all objects classified (or diagnosed) the same way.
Two special data sets with missing attribute values were extensively studied: in the first case, all missing attribute values were lost (Stefanowski and Tsoukias, 2001), in the second case, all missing attribute values were "do not care" conditions (Kryszkiewicz, 1999).
In attribute-concept values interpretation of a missing attribute value, the missing attribute value may be replaced by any value of the attribute domain restricted to the concept to which the object with a missing attribute value belongs (Grzymala-Busse and Grzymala-Busse, 2007). For example, if for a patient the value of an attribute Temperature is missing, this patient is sick with flu, and all remaining patients sick with flu have values high or very-high for Temperature when using the interpretation of the missing attribute value as the attribute-concept value, we will replace the missing attribute value with high and very-high. Additionally, the characteristic relation, (see, e.g., Grzymala-Busse and Grzymala-Busse, 2007) enables to process data sets with all three kind of missing attribute values at the same time: lost, "do not care" conditions, and attribute-concept values.
Aplicaciones
Rough set methods can be applied as a component of hybrid solutions in machine learning and data mining. They have been found to be particularly useful for rule induction and feature selection (semantics-preserving dimensionality reduction). Rough set-based data analysis methods have been successfully applied in bioinformatics, economics and finance, medicine, multimedia, web and text mining, signal and image processing, software engineering, robotics, and engineering (e.g. power systems and control engineering). Recently the three regions of rough sets are interpreted as regions of acceptance, rejection and deferment. This leads to three-way decision making approach with the model which can potentially lead to interesting future applications.
Historia
The idea of rough set was proposed by Pawlak (1981) as a new mathematical tool to deal with vague concepts. Comer, Grzymala-Busse, Iwinski, Nieminen, Novotny, Pawlak, Obtulowicz, and Pomykala have studied algebraic properties of rough sets. Different algebraic semantics have been developed by P. Pagliani, I. Duntsch, M. K. Chakraborty, M. Banerjee and A. Mani; these have been extended to more generalized rough sets by D. Cattaneo and A. Mani, in particular. Rough sets can be used to represent ambiguity, vagueness and general uncertainty.
Extensiones y generalizaciones
Since the development of rough sets, extensions and generalizations have continued to evolve. Initial developments focused on the relationship - both similarities and difference - with fuzzy sets. While some literature contends these concepts are different, other literature considers that rough sets are a generalization of fuzzy sets - as represented through either fuzzy rough sets or rough fuzzy sets. Pawlak (1995) considered that fuzzy and rough sets should be treated as being complementary to each other, addressing different aspects of uncertainty and vagueness.
Three notable extensions of classical rough sets are:
- Dominance-based rough set approach (DRSA) is an extension of rough set theory for multi-criteria decision analysis (MCDA), introduced by Greco, Matarazzo and Słowiński (2001). The main change in this extension of classical rough sets is the substitution of the indiscernibility relation by a dominance relation, which permits the formalism to deal with inconsistencies typical in consideration of criteria and preference-ordered decision classes.
- Decision-theoretic rough sets (DTRS) is a probabilistic extension of rough set theory introduced by Yao, Wong, and Lingras (1990). It utilizes a Bayesian decision procedure for minimum risk decision making. Elements are included into the lower and upper approximations based on whether their conditional probability is above thresholds and . These upper and lower thresholds determine region inclusion for elements. This model is unique and powerful since the thresholds themselves are calculated from a set of six loss functions representing classification risks.
- Game-theoretic rough sets (GTRS) is a game theory-based extension of rough set that was introduced by Herbert and Yao (2011). It utilizes a game-theoretic environment to optimize certain criteria of rough sets based classification or decision making in order to obtain effective region sizes.
Rough membership
Rough sets can be also defined, as a generalisation, by employing a rough membership function instead of objective approximation. The rough membership function expresses a conditional probability that belongs to given . This can be interpreted as a degree that belongs to in terms of information about expressed by .
Rough membership primarily differs from the fuzzy membership in that the membership of union and intersection of sets cannot, in general, be computed from their constituent membership as is the case of fuzzy sets. In this, rough membership is a generalization of fuzzy membership. Furthermore, the rough membership function is grounded more in probability than the conventionally held concepts of the fuzzy membership function.
Other generalizations
Several generalizations of rough sets have been introduced, studied and applied to solving problems. Here are some of these generalizations:
- rough multisets (Grzymala-Busse, 1987)
- fuzzy rough sets extend the rough set concept through the use of fuzzy equivalence classes(Nakamura, 1988)
- Alpha rough set theory (α-RST) - a generalization of rough set theory that allows approximation using of fuzzy concepts (Quafafou, 2000)
- intuitionistic fuzzy rough sets (Cornelis, De Cock and Kerre, 2003)
- generalized rough fuzzy sets (Feng, 2010)
- rough intuitionistic fuzzy sets (Thomas and Nair, 2011)
- soft rough fuzzy sets and soft fuzzy rough sets (Meng, Zhang and Qin, 2011)
- composite rough sets (Zhang, Li and Chen, 2014)
Ver también
- Algebraic semantics
- Alternative set theory
- Analog computer
- Description logic
- Fuzzy logic
- Fuzzy set theory
- Granular computing
- Near sets
- Rough fuzzy hybridization
- Type-2 fuzzy sets and systems
- Decision-theoretic rough sets* Version space
- Dominance-based rough set approach
Referencias
- Pawlak, Zdzisław (1982). "Rough sets". International Journal of Parallel Programming. 11 (5): 341–356. doi:10.1007/BF01001956. S2CID 9240608.
- Bazan, Jan; Szczuka, Marcin; Wojna, Arkadiusz; Wojnarski, Marcin (2004). On the evolution of rough set exploration system. Proceedings of the RSCTC 2004. Lecture Notes in Computer Science. 3066. pp. 592–601. CiteSeerX 10.1.1.60.3957. doi:10.1007/978-3-540-25929-9_73. ISBN 978-3-540-22117-3.
- Dubois, D.; Prade, H. (1990). "Rough fuzzy sets and fuzzy rough sets". International Journal of General Systems. 17 (2–3): 191–209. doi:10.1080/03081079008935107.
- Herbert, J. P.; Yao, J. T. (2011). "Game-theoretic Rough Sets". Fundamenta Informaticae. 108 (3–4): 267–286. doi:10.3233/FI-2011-423.
- Greco, Salvatore; Matarazzo, Benedetto; Słowiński, Roman (2001). "Rough sets theory for multicriteria decision analysis". European Journal of Operational Research. 129 (1): 1–47. doi:10.1016/S0377-2217(00)00167-3.
- Grzymala-Busse, Jerzy (1997). "A new version of the rule induction system LERS". Fundamenta Informaticae. 31: 27–39. doi:10.3233/FI-1997-3113.
- Grzymala-Busse, Jerzy; Grzymala-Busse, Witold (2007). An experimental comparison of three rough set approaches to missing attribute values. Transactions on Rough Sets. Lecture Notes in Computer Science. 6. pp. 31–50. doi:10.1007/978-3-540-71200-8_3. ISBN 978-3-540-71198-8.
- Kryszkiewicz, Marzena (1999). "Rules in incomplete systems". Information Sciences. 113 (3–4): 271–292. doi:10.1016/S0020-0255(98)10065-8.
- Pawlak, Zdzisław Rough Sets Research Report PAS 431, Institute of Computer Science, Polish Academy of Sciences (1981)
- Pawlak, Zdzisław; Wong, S. K. M.; Ziarko, Wojciech (1988). "Rough sets: Probabilistic versus deterministic approach". International Journal of Man-Machine Studies. 29: 81–95. doi:10.1016/S0020-7373(88)80032-4.
- Pawlak, Zdzisław (1991). Rough Sets: Theoretical Aspects of Reasoning About Data. Dordrecht: Kluwer Academic Publishing. ISBN 978-0-7923-1472-1.
- Slezak, Dominik; Wroblewski, Jakub; Eastwood, Victoria; Synak, Piotr (2008). "Brighthouse: an analytic data warehouse for ad-hoc queries" (PDF). Proceedings of the VLDB Endowment. 1 (2): 1337–1345. doi:10.14778/1454159.1454174.
- Stefanowski, Jerzy (1998). "On rough set based approaches to induction of decision rules". In Polkowski, Lech; Skowron, Andrzej (eds.). Rough Sets in Knowledge Discovery 1: Methodology and Applications. Heidelberg: Physica-Verlag. pp. 500–529.
- Stefanowski, Jerzy; Tsoukias, Alexis (2001). Incomplete information tables and rough classification. Computational Intelligence. 17. pp. 545–566. doi:10.1111/0824-7935.00162.
- Wong, S. K. M.; Ziarko, Wojciech; Ye, R. Li (1986). "Comparison of rough-set and statistical methods in inductive learning". International Journal of Man-Machine Studies. 24: 53–72. doi:10.1016/S0020-7373(86)80033-5.
- Yao, J. T.; Yao, Y. Y. (2002). "Induction of classification rules by granular computing". Proceedings of the Third International Conference on Rough Sets and Current Trends in Computing (TSCTC'02). London, UK: Springer-Verlag. pp. 331–338.
- Ziarko, Wojciech (1998). "Rough sets as a methodology for data mining". Rough Sets in Knowledge Discovery 1: Methodology and Applications. Heidelberg: Physica-Verlag. pp. 554–576.
- Ziarko, Wojciech; Shan, Ning (1995). "Discovering attribute relationships, dependencies and rules by using rough sets". Proceedings of the 28th Annual Hawaii International Conference on System Sciences (HICSS'95). Hawaii. pp. 293–299.
- Pawlak, Zdzisław (1999). "Decision rules, Bayes' rule and rough sets". New Direction in Rough Sets, Data Mining, and Granular-soft Computing: 1–9.
- Pawlak, Zdzisław. "Rough relations, reports". Institute of Computer Science. 435.
- Orlowska, E. (1987). "Reasoning about vague concepts". Bulletin of the Polish Academy of Sciences. 35: 643–652.
- Polkowski, L. (2002). "Rough sets: Mathematical foundations". Advances in Soft Computing.
- Skowron, A. (1996). "Rough sets and vague concepts". Fundamenta Informaticae: 417–431.
- Burgin M. (1990). Theory of Named Sets as a Foundational Basis for Mathematics, In Structures in mathematical theories: Reports of the San Sebastian international symposium, September 25–29, 1990 (http://www.blogg.org/blog-30140-date-2005-10-26.html)
- Burgin, M. (2004). Unified Foundations of Mathematics, Preprint Mathematics LO/0403186, p39. (electronic edition: https://arxiv.org/ftp/math/papers/0403/0403186.pdf)
- Burgin, M. (2011), Theory of Named Sets, Mathematics Research Developments, Nova Science Pub Inc, ISBN 978-1-61122-788-8
- Cornelis, C., De Cock, M. and Kerre, E. (2003) Intuitionistic fuzzy rough sets: at the crossroads of imperfect knowledge, Expert Systems, 20:5, pp260–270
- Düntsch, I. and Gediga, G. (1995) Rough Set Dependency Analysis in Evaluation Studies – An Application in the Study of Repeated Heart Attacks. University of Ulster, Informatics Research Reports No. 10
- Feng F. (2010). Generalized Rough Fuzzy Sets Based on Soft Sets, Soft Computing, 14:9, pp 899–911
- Grzymala-Busse, J. (1987). Learning from examples based on rough multisets, in Proceedings of the 2nd International Symposium on Methodologies for Intelligent Systems, pp. 325–332. Charlotte, NC, USA,
- Meng, D., Zhang, X. and Qin, K. (2011). Soft rough fuzzy sets and soft fuzzy rough sets, Computers & Mathematics with Applications, 62:12, pp4635–4645
- Quafafou M. (2000). α-RST: a generalization of rough set theory, Information Sciences, 124:1–4, pp301–316.
- Quafafou M. and Boussouf M. (2000). Generalized rough sets based feature selection. Journal Intelligent Data Analysis, 4:1 pp3 – 17
- Nakamura, A. (1988) Fuzzy rough sets, ‘Notes on Multiple-valued Logic in Japan’, 9:1, pp1–8
- Pawlak, Z., Grzymala-Busse, J., Slowinski, R. Ziarko, W. (1995). Rough Sets. Communications of the ACM, 38:11, pp88–95
- Thomas, K. and Nair, L. (2011). Rough intuitionistic fuzzy sets in a lattice, International Mathematical Forum, 6:27, pp1327–1335
- Zhang J., Li T., Chen H. (2014). Composite rough sets for dynamic data mining, Information Sciences, 257, pp81–100
- Zhang J., Wong J-S, Pan Y, Li T. (2015). A parallel matrix-based method for computing approximations in incomplete information systems, IEEE Transactions on Knowledge and Data Engineering, 27(2): 326-339
- Chen H., Li T., Luo C., Horng S-J., Wang G. (2015). A decision-theoretic rough set approach for dynamic data mining. IEEE Transactions on Fuzzy Systems, 23(6): 1958-1970
- Chen H., Li T., Luo C., Horng S-J., Wang G. (2014). A rough set-based method for updating decision rules on attribute values' coarsening and refining, IEEE Transactions on Knowledge and Data Engineering, 26(12): 2886-2899
- Chen H., Li T., Ruan D., Lin J., Hu C, (2013) A rough-set based incremental approach for updating approximations under dynamic maintenance environments. IEEE Transactions on Knowledge and Data Engineering, 25(2): 274-284
Otras lecturas
- Gianpiero Cattaneo and Davide Ciucci, "Heyting Wajsberg Algebras as an Abstract Environment Linking Fuzzy and Rough Sets" in J.J. Alpigini et al. (Eds.): RSCTC 2002, LNAI 2475, pp. 77–84, 2002. doi:10.1007/3-540-45813-1_10
enlaces externos
- The International Rough Set Society
- Rough set tutorial
- Rough Sets: A Quick Tutorial
- Rough Set Exploration System
- Rough Sets in Data Warehousing