Glossaire de l'exploration de données

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

L'exploration de données étant à l'intersection des domaines de la statistique, de l'intelligence artificielle et de l'informatique, il semble intéressant de faire un glossaire où on peut retrouver les définitions des termes en français et leur équivalent en anglais classées selon ces trois domaines, en indiquant lorsque c'est utile s'il s'agit d'exploration de données "classique", de fouille de texte, du web, de flots de données ou de fichier audio.

Informatique[modifier | modifier le code]

Sommaire : Haut - A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

Dans ce paragraphe est listé le vocabulaire informatique utilisé dans le data mining.

A[modifier | modifier le code]

Algorithme (« Algorithm ») : c'est un ensemble d'étapes, d'opérations, de procédures destinées à produire un résultat.

C[modifier | modifier le code]

Champ (« Field ») : c'est l'information élémentaire d'une table (colonne de la table) dans une base de données.

F[modifier | modifier le code]

FP-tree (« Frequent Pattern tree ») : Dans le domaine des règles d'association, c'est la déclinaison d'un arbre trie composé d'une racine, de sous-arbres préfixés par les items, et d'une table des items fréquents. Chaque nœuds contient le nom de l'item, le nombre de transactions contenant l'item dans la portion de l'arbre menant à ce nœud, un lien vers le prochain nœud portant le même nom d'item - ou null s'il n'y en n'a pas. La table des têtes d'items fréquents contient le nom de l'item, et un pointeur vers le premier nœud du FP-tree portant le nom de l'item[1].

M[modifier | modifier le code]

Métadonnée (« Metadata ») : Données sur les données. Ce sont les descriptions, définitions des données ou des informations.

S[modifier | modifier le code]

Session (« Session ») : En fouille du web, une session est l'ensemble des séquences d'actions effectuées par un utilisateur sur internet en une seule visite. Par exemple se connecter à internet, lire un article, puis accéder à un site marchand, ajouter un objet à son panier, payer, sortir d'internet.

Système de gestion de base de données (DBMS) (« Database Management System (DBMS) ») : Un système de gestion de base de données est l'ensemble des programmes qui contrôlent la création, l'évolution et l'utilisation d'une base de données.

Système de Gestion de Flux de Données[2] (DSMS) (« Data Stream Management System » (« DSMS »)) : C'est l"ensemble des programmes qui permettent la gestion et l'interrogation des données dans un flot de données. C'est l'équivalent pour les flots de données du DBMS pour les données statiques. Les DSMS sont utilisés dans la gestion des données envoyés par les capteurs, par exemple. On utilise les DSMS dans l'exploration de flots de données où on utilise leur capacité à interroger continûment les données qui arrivent[3].

Data Mining[modifier | modifier le code]

Sommaire : Haut - A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

Dans ce paragraphe est listé le vocabulaire spécifique au data mining ainsi que les algorithmes utilisé dans le data mining et issus d'autres domaines[4].

A[modifier | modifier le code]

Analyse lexicale (« Tokenization ») : En fouille de texte (entre autres domaines) , l'analyse lexicale est la décomposition de textes en mots appelés tokens, et l'étude des phénomènes (statistique, morphologiques) relatifs à ces mots[5].

Arbre de décision (« Decision Tree ») : Une classe de méthodes statistiques et d'exploration de données (« Data Mining ») qui forment des modèles prédictifs en forme d'arbre.

Arbre de classification (« Classification Tree ») : c'est une technique de data mining utilisée pour prédire l'appartenance de données à des classes de telle manière que les données dans une classe se ressemblent le plus possible alors que les classes elles-mêmes soient le plus dissemblables possible. Les critères de séparation peuvent être le χ², l'indice de Gini, le Twoing, l'Entropie[6],[7]

Autocorrélation spatiale (« Spatial autocorrelation ») : en fouille de données spatiales, c'est la mesure de la dépendance spatiale. Elle quantifie l'importance avec laquelle un évènement en un lieu, force ou rend plus probable le même évènement en un lieu voisin[8].

C[modifier | modifier le code]

Cadrage multidimensionnel (« Multidimensional scaling ») : c'est une technique de fouille de données spatiales permettant de représenter visuellement des objets ou des évènements en fonction de leur proximité ou de leur similarité[9],[Géo 1].

Catégorisation de documents (« Categorization of text material ») : En fouille de texte, c'est l'assignation de documents à une ou plusieurs catégories selon son contenu (comme on le fait sur Wikipedia)[10].

CART (« Classification and Regression Trees ») : Un type d'algorithme d'arbre de décision qui automatise le processus d'élagage par validation croisée et autre techniques.

Cartographie de surface de tendances (« Trend Surface mapping ») : En fouille de données spatiales, le but de la cartographie de surface de tendances est de décomposer une série spatiale (un phénomène sur un ensemble de sites) en deux composantes : une tendance ou composante régionale et une erreur ou composante locale. Cette séparation est accomplie en spécifiant et ajustant un modèle de surface de tendance. Il capture la structure régionale sousjacente de la série et laisse une composante locale ne montrant aucune variation visible. Un modèle de surface de tendance est un modèle de régression linéaire dans lequel les variables explicatives sont les coordonnées géographiques de chaque site dans la série spatiale[11],[12].

Classification ou Segmentation (« Clustering ») : C'est la technique qui consiste à regrouper les enregistrements en fonction de leur proximité et de la connectivité à l'intérieur d'un espace à n dimensions. Dans ce cas, c'est une technique d'apprentissage non-supervisée. La Classification est aussi le processus permettant de déterminer qu'un enregistrement appartient à un groupe prédéterminé. Il s'agit alors d'une technique d'apprentissage supervisée. En français on parle aussi de Segmentation (en marketing), de Typologie, de Taxinomie (en zoologie et en biologie), de Nosologie (en médecine)[13]. En Exploration de données, la Classification se déroule en trois phases : une première phase où le modèle est construit sur un échantillon de données pré-classée, une deuxième phase où le modèle doit prédire la classification de données pré-classée ( données sur lesquelles le modèle n'a pas effectué son apprentissage), enfin une troisième phase où le modèle est déployé. En Fouille de flots de données, les données pré-classées et les données non pré-classées sont présentent dans le même flux, les trois phases sont donc confondues[14].

Classification double (« Biclustering ») : En Exploration de données, c'est une technique non supervisée qui vise à segmenter les lignes et les colonnes d'une matrice de données. Très utilisée en bio-informatique, notamment pour l'analyse de l'expression des gènes, cette technique a tendance à s'étendre à beaucoup d'autres domaines, tels que la compression d'image, en fouille du web pour la classification des spammeurs, etc.

CHAID (« Chi-Square Automatic Interaction Detector ») : Un processus qui utilise des tables d'éventualités et le test du chi2 pour créer un arbre.

Colocalisation(« co-location ») : la colocalisation est l'analyse en fouille de données spatiales, consistant à rapprocher deux évènements par leur localisation géographique. Par exemple la présence d'eaux polluées et l'apparition d'une épidémie dans le voisinage[Géo 2].

Contrainte anti-monotone (« Anti-monotone constraint ») : Dans le domaine des règles d'associations, une contrainte[15] est dite anti-monotone[16],[17] (pour l'inclusion) lorsque, étant valide pour un motif, elle est forcément valide pour un sous-ensemble englobant ce motif.

Contrainte monotone (« Monotone constraint ») : Dans le domaine des règles d'associations, une contrainte est dite monotone[16],[17] (pour l'inclusion), lorsque étant valide pour un motif, elle est forcément valide pour un sur-ensemble englobant ce motif.

Validation croisée[10] (« Cross validation ») : C'est le processus d'évaluation de la prédictibilité d'un modèle en comparant le résultat du modèle appliqué sur un échantillon de test avec le résultat obtenu sur l'échantillon d'apprentissage qui a servi à bâtir le modèle. C'est la première étape de validation qui permet entre autres de vérifier qu'il n'y a pas sur-apprentissage.

D[modifier | modifier le code]

Exemple de diagramme de Voronoï (en rouge) construit à l'aide de la triangulation de Delaunay (en noir).

Data binning (« Binning ») : Processus par lequel une grandeur continue est discrétisée, découpée en morceaux.

Diagramme de Voronoi (« Voronoi diagram ») : Partition de l'espace définie à partir des triangles de Delaunay, en construisant les points à l'aide des médiatrices des côtés de chaque triangle.

Distance (« Distance ») : Ce sont des fonctions utilisées en classification non supervisée (« Clustering ») pour déterminer les classes et placer les individus dans ces classes.

pour les données continues on peut utiliser les distances issues de la distance de Minkowski définie comme ceci[18] :
si x_i ~ et ~ x_j sont deux vecteurs d'un espace de dimension r on a :
dist(x_i,x_j) = (|x_{i_1} - x_{j_1}|^h + |x_{i_2} - x_{j_2}|^h +...+ |x_{i_r} - x_{j_r}|^h)^\frac{1}{h}
si h=1, on obtient la distance de Manhattan ; si h=2, on a la distance euclidienne.
on utilise aussi la distance de Chebychev :
dist(x_i,x_j) = max(|x_{i_1} - x_{j_1}| + |x_{i_2} - x_{j_2}| +...+ |x_{i_r} - x_{j_r}|)

.

si x_i ~ et ~ x_j sont deux variables aléatoires de même distribution à valeurs dans \R^p, et si S est la matrice de covariance de ces deux variables aléatoires, on définit la distance de Mahalanobis par :
dist(x_i,x_j) = ((x_i - x_j)^t S^{-1} (x_i - x_j))^\frac{1}{2}

.

pour les variables binaires symétriques - celles qui ne prennent que deux valeurs 0 et 1 et toutes deux d'égale importance - on utilise la matrice de confusion
  point x_j
  1 0 total
point
x_i
1 a b a+b
0 c d c+d
total a+c b+d a+b+c+d
pour avoir
dist(x_i,x_j) = \frac{b+c}{a+b+c+d}

.

Pour les variables binaires asymétriques - celles pour lesquelles une des deux valeurs est plus importante (par convention la valeur 1)
on utilise la distance de Jaccard, soit :
dist(x_i,x_j) = \frac{b+c}{a+b+c}
Dans le cadre de la recherche de similarité entre pages web ou entre documents, on utilise la mesure cosinus, qui permet en fouille du web de déterminer si deux pages - ou deux documents - sont «proches» ou non. Mais ce n'est pas une distance mathématique à proprement parler.

Dendrogramme (« Dendrogram ») : c'est une représentation graphique d'une classification hiérarchique ascendante[19]

Dépendance spatiale (« Spatiale dependence ») : c'est une notion fondamentale en Analyse spatiale. Elle caractérise le fait qu'une grandeur en un point géographique ou en une région dépend de la même grandeur dans le voisinage de ce point ou de cette région. Par exemple le prix d'un appartement dans une ville dépend du prix des appartements aux alentours. L'amplitude de la dépendance spatiale est mesurée par l'autocorrélation spatiale[20].

E[modifier | modifier le code]

Echantillonnage spatial (« Spatial sampling ») : La dépendance spatiale et l'hétérogénéité, en fouille de données spatiales, autorisent l'utilisation de mesures, en nombre restreint, judicieusement placées dans l'espace étudié en vue d'obtenir des échantillons des grandeurs auxquelles l'analyste s’intéresse[Géo 3],[21].

Élagage (« Pruning ») : C'est la technique qui permet de modifier la structure d'un arbre de décision en remplaçant certaines branches par des feuilles de telles sorte que la justesse de la classification ou de la prédiction en soit améliorée. En général, on emploie cette technique après avoir construit l'arbre en entier.

Ensemble (méthodes) (« Ensemble methods ») : C'est la technique qui permet

  • de combiner différentes méthodes sur un même échantillon, réconcilier les résultats puis appliquer le modèle réconcilé sur des données hors-échantillon,
  • ou bien de paramétrer différentes méthodes sur un échantillon, appliquer les méthodes paramétrées sur des données hors-échantillon et adopter le résultat par vote[22]- ie le résultat adopté par le plus de méthodes est retenu.

La première technique combine les résultats par l'apprentissage et est plutôt liée aux méthodes supervisées, la seconde par consensus et est plutôt liée aux méthodes non-supervisées.

Entropie (« Entropy ») : Souvent utilisée en « Data Mining », elle permet de mesurer le désordre dans un ensemble de données. Pour un ensemble discret de k valeurs on a

E = - \sum_{i=1}^{i=k} p_{i}ln(p_{i}) p_{i} est le poids de la valeur i parmi les k valeurs.

L'entropie est utilisée dans les arbres de décision pour choisir la variable maximisant le gain d'information[23] :
Si D est un ensemble de données contenant les attributs \left\{\Alpha_1,\Alpha_2,...\Alpha_{|D|}\right\}, si C est l'ensemble des classes \left\{c_1,c_2,...c_{|C|}\right\}, alors :

E(D) = - \sum_{j=1}^{j=|C|}\Pr(c_j)\log(c_j) et \sum_{j=1}^{j=|C|}\Pr(c_j) = 1\Pr(c_j) est la probabilité de la classe c_j dans D.

Si on utilise \Alpha_i pour partitionner D, celui-ci sera divisé en sous-ensembles disjoints \left\{D_1,D_2,...D_{|\Alpha_i|}\right\}|\Alpha_i| est le nombre de valeurs de l'attribut \Alpha_i.

L'entropie de D après la partition selon \Alpha_i est donnée par :

E_{\Alpha_i}(D) = \sum_{j=1}^{j=|\Alpha_i|} \frac{|D_j|}{|D|} E(D_j).

Le gain d'information de l'attribut \Alpha_i est égal à :

gain(D,\Alpha_i) = E(D) - E_{\Alpha_i}(D)

et le ratio de gain d'information est égal à

ratiogain(D,\Alpha_i) = \frac{gain(D,\Alpha_i)}{-\sum_{j=1}^{j=|\Alpha_i|}\Bigl( \frac{|D_j|}{|D|} * \log \frac{|D_j|}{|D|}\Bigr)  }

Dans un arbre de décision, chaque nœud est valorisé par l'attribut qui maximise le ratiogain.
Exactitude (en) (« Accuracy ») : L'exactitude d'un système de mesures d'une grandeur est sa capacité à être proche de la vraie valeur de cette grandeur[DM 1].

Extraction de Connaissance à partir des données (« Knowledge Discovery in Databases ») : une autre expression signifiant Data Mining.

Extraction de Connaissance Omniprésente(« Ubiquitous Knowledge Discovery ») : Domaine dont les objets d'étude[24] :

  • existent dans le temps et l'espace dans un environnement changeant
  • peuvent se mouvoir, et apparaître et disparaître
  • ont des capacités de traitement de l'information
  • ne connaissent que leur environnement spatio-temporel local
  • agissent sur contraintes en temps réel
  • sont capables d'échanger de l'information avec d'autres objets.

F[modifier | modifier le code]

Fenêtre glissante[25] (« Sliding window ») : Fenêtre temporelle utilisée dans l'exploration des flots de données (« Data stream mining ») pour en extraire des motifs. Les fenêtres peuvent avoir une taille W fixe et la fouille de données s'effectue sur les W dernières transactions, ou sur les W dernières unités de temps, elles peuvent aussi avoir une taille variable, dans la détection de la dérive conceptuelle, par exemple.

Fenêtre à jalon[25] (« Landmark window ») : autre type de fenêtre temporelle utilisée dans l'exploration des flots de données. Ce sont des fenêtres acceptant des transactions depuis un jalon temporel donné.

Fenêtre pondérée[25] (« Damped window ») : encore un autre type de fenêtre temporelle utilisée dans l'exploration des flots de données. Ce sont des fenêtres où les transactions sont pondérées en fonction de leur ancienneté. Ceci peut être réalisé en utilisant un taux de dégénérescence (« Decay rate »).

Fenêtre dilatée (« Tilted time window ») : C'est une fenêtre temporelle, utilisée dans certains algorithmes de fouille de flot de données, où les arrivants les plus récents sont stockés à un niveau de granularité le plus fin, alors que les item(set)s les plus anciens sont stockés à un niveau de granularité plus grossier. On peut utiliser des fenêtre dilatées naturelle, des fenêtres dilatées à échelle logarithmique ou des fenêtres dilatées progressives logarithmique[26].

Flux de clics (« Clickstream ») : Dans le domaine de l'usage du web c'est l'enregistrement de ce sur quoi un utilisateur clique lorsqu'il navigue sur l'internet. Quand l'utilisateur clique sur une page web, l'action est logger sur le poste client ou sur un server web, avec d'autre données telles que le navigateur Web, les routeurs, les serveurs de proxy, etc. L'analyse des flux de clics est utile pour l'analyse de l'activité internet[27],[28] d'un site ou l'analyse des comportements des utilisateurs face au web.


Frontière (« Frontier ») : En fouille de la structure du web, une Frontière est l'ensemble des URL non encore visitées par un robot d'indexation (« Web Crawler »).

G[modifier | modifier le code]

Gain d'information (« Information gain ») : voir Entropie
Gini (« Gini Metric ») : Un indicateur permettant de mesurer la réduction du désordre dans un ensemble de données induite par la séparation des données dans un arbre de décision. L'indice de diversité de Gini et l'entropie sont les deux manières les plus populaire pour choisir les prédicteurs dans l'arbre de décision CART. Pour un ensemble discret de k valeurs on a

G = \sum_{i=1}^{i=k} p_{i}(1-p_{i}) p_{i} est le poids de la valeur i.


H[modifier | modifier le code]

Hétérogénéité spatiale (« Spatial heterogeneity ») : c'est ainsi qu'est nommée la non stationnarité de la plupart des processus géographiques[29].Une autre manière de le dire : le contexte spatial est différent en chaque point et cette fluctuation spatiale influe sur les relations entre les variables[30],[Géo 4].

I[modifier | modifier le code]

ID3 (« ID3 ») : ID3 est l'un des plus anciens algorithmes d'arbre de décision
Item (« Item ») : c'est un motif, en exploration de flots de données (« Data stream mining »), c'est un objet dans le domaine des règles d'association…

Itemset (« Itemset ») : c'est un motif, en exploration de flots de données (« Data stream mining »), c'est un ensemble d'objets dans le domaine des règles d'association…

Interpolation spatiale (« spatial interpolation ») :

« Tout d'abord, qu'est-ce que l'interpolation spatiale ? C'est le processus d'estimation d'une valeur à une localisation (x,y) à partir de valeurs placées à d'autres localisations (x1,y1)...(xn,yn) »

— SOM, SIG-o-Matic[31]

L'interpolation spatiale est rendue possible et utile par l'hétérogénéité et la dépendance spatiales. Si tout était homogène l'interpolation serait inutile, si tous les phénomènes spatiaux étaient indépendants l'interpolation serait impossible[réf. nécessaire][32].

Interpolation polynomiale globale (« Global Polynomial interpolation ») : c'est une méthode d'interpolation spatiale déterministe utilisant les polynômes sur toute la surface à interpoler[33]. C'est une méthode qui n'utilise pas les voisins.

Interpolation polynomiale locale (« Local Polynomial interpolation ») : c'est une méthode d'interpolation spatiale déterministe utilisant des polynômes sur des voisinages de points[34].

K[modifier | modifier le code]

Krigeage (« Krigging ») : méthode d'interpolation spatiale utilisant une pondération minimisant la variance de l'estimation[35],[36],[37]. Le krigeage simple ou le krigeage universel[38] est utilisé selon que des hypothèses de stationnarité sont satisfaites ou non.

L[modifier | modifier le code]

Large Vocabulary Continuous Speech Recognition : En fouille audio, technique permettant de reconnaître des mots dans un flux audio.

M[modifier | modifier le code]

Une Table de confusion Positive/negative

Distance de Mahalanobis (« Mahalanobis distance ») : voir Distance. Cette distance peut être utilisée pour savoir si une observation est un outlier ou non[39].

Matrice de Confusion[40],[41] (« Confusion Matrix ») : c'est un tableau dans lequel on place les compteurs des valeurs que le test (ou modèle) a prédit correctement dans la case des "Vrai Corrects" ou des "Faux Corrects", celles des valeurs que le test (ou modèle) n'a pas prédit correctement dans la case des "Vrais Incorrects" ou "Faux Incorrects" ( dans l'exemple ci-contre on voit les True Positive, True Negative, False Positive et False Negative). On calcule ensuite l'Exactitude, la Sensibilité ou Rappel, La Précision, la Spécificité pour mesurer la pertinence dut test ou du modèle.
Définitions : Exactitude = \frac{TP+TN}{TP+FP+TN+FN}, Rappel = \frac{TP}{TP+FN}, Précision = \frac{TP}{TP+FP},
Spécificité = \frac{TN}{TN+FP}.

Matrice d'interactions spatiales ou Matrice de poids spatiale ( « Spatial weight matrix ») : Matrice carrée permettant de modéliser l'interaction entre deux points géographiques en fonction de l'importance de leur interaction. En fouille de données spatiales les matrices peuvent être de contiguïté - modélisant l'importance de l'interaction en fonction de la proximité [42] - ou de gravité, modélisant l'interaction en fonction de la «masse» du phénomène observé, comme les flux migratoires modélisés par E.Ravenstein en 1885[43].

Motif séquentiel[44] (« Sequential pattern ») : c'est un motif, en fouille de données et en exploration de flots de données. Ce sont des motifs tels qu'on les trouvent dans des règles d'associations mais assortis de contraintes temporelles. Par exemple[45], les clients qui achètent un ordinateur sont susceptibles d'acheter tel ou tel accessoire dans un laps de temps déterminé après l'achat du premier appareil. Les motifs séquentiels peuvent être recherchés dans plusieurs transactions effectuées dans des périodes de temps différentes, alors que les règles d'associations sont recherchées dans la même transaction.

Mesure cosinus ( « Cosine mesure ») : en fouille du web, c'est une mesure de la similarité de deux pages. Si p1 = (p_{11},p_{12},p_{1n}) et p2 = (p_{21},p_{22},p_{2n}) p_{ij} sont les fréquences des mots en commun aux pages p1 et p2, alors la similarité des pages p1 et p2 est mesurée par :  \cos (\alpha) = \frac{p1.p2}{||p1||.||p2||}, soit  \cos (\alpha) = \frac{\sum_{k=1}^n p_{1k}.p_{2k}}{\sqrt[2]{\sum_{k=1}^n p_{1k}^2}.\sqrt[2]{\sum_{k=1}^n p_{2k}^2}}. (voir exemple graphique [46])

N[modifier | modifier le code]

N-Gramme (« N-Gram ») : technique, employée en fouille de texte, de découpage des textes en sous-séquences de longueur N[47].

P[modifier | modifier le code]

Pondération inverse à la distance ( « Inverse distance weighting ») : c'est une des méthodes déterministes d'interpolation spatiale, qui consiste à estimer la valeur d'une grandeur en un point en fonction des valeurs connues de cette même grandeur en différents points voisins, en pondérant chaque valeur par l'inverse de la distance entre le point dont la valeur est à estimer et les différents points voisins[48].

Précision ( « Precision ») : La précision d'un système de mesures d'une grandeur est sa capacité à donner des résultats proches lorsqu'ils sont répétés sous conditions inchangées.

Première loi de Tobler ( « Tobler's first law ») : Assez éloignée de la fouille de données, cette entrée explique la nature particulière de la fouille de données spatiales et le concept d'autocorrélation spatiale.

« « Everything is related to everything else, but near things are more related than distant things. » »

— Waldo Tobler[49]

.

Q[modifier | modifier le code]

QUEST ( « QUEST ») : un arbre de décision/classification développé par Wei-Yin Loh et Yu-Shan Shih en 1997[50]. QUEST est utilisé dans le package lohTools[51] du logiciel R.

R[modifier | modifier le code]

Page Racine (« Seed page ») : En fouille de la structure du web, c'est une page initiale, permettant l'exploration de la structure de l'internet ou d'une partie de celle-ci par un robot d'indexation ( nommé aussi « Spider » ou « Web Crawler »).

Recouvrement (« Overlay ») : En fouille de données spatiales, il s'agit du processus consistant à joindre et visualiser simultanément des données, provenant de sources diverses, localisées dans le même espace géographique[52],[Géo 5].

Règle d'association (« Association Rule ») : C'est une technique de data mining utilisée pour décrire des relations entre des objets (item), des ensembles d'objets (itemset) ou des évènements[10]. L'algorithme A-priori est un algorithme efficace et populaire pour trouver ce type de règles d'association. Exemple les associations entre les objets achetés dans un supermarché. Une règle d'association est de la forme Si ceci alors cela. Plus formellement, soit \Iota= \{i_1,i_2,...,i_m \} un ensemble d'items. Soit \Tau= \{t_1,t_2,...,t_n \} un ensemble de transactions, telles que t_i soit un sous-ensemble de \Iota (ie t_i  \subseteq \Iota). Une règle d'association s'exprime sous la forme :

 \Chi  \rightarrow Y , où \Chi \in \Tau , Y \in \Tau (ce qui est équivalent à \Chi  \subseteq \Iota , Y \subseteq \Iota ), et \Chi \cap Y = \empty

 \Chi est un ensemble appelé itemset.

Règle d'association spatiale (« Spatial Association Rule ») : c'est une règle d'association où X ou Y contient des prédicats spatiaux - de types distance, direction, topologique - tels que proche, éloigné, contient, contigu, etc. Alors que dans une règle d'association chaque occurrence (lignes dans une Bdd géographique) de l'association est une transaction, en analyse spatiale une occurrence représente un objet spatial (Paris, Londres, .. ) d'un type d'objet spatial (ville, pays, bâtiment, ..) analysé selon les prédicats (colonnes dans une Bdd géographique)[53].

S[modifier | modifier le code]

Segmentation (« Clustering ») : Technique de classification non supervisée permettant de ranger des données dans des classes non prédéfinies[54].

Segmentation en analyse de texte (« Clustering in text analysis ») : En fouille de texte, il s'agit d'une segmentation non supervisée pour l'organisation de documents, ou de textes dans des documents, parfois appelée aussi filtrage, impliquant des algorithmes comme les arbres de classification ou l'algorithme SVM[10].

Stationnarité(« Stationarity ») : En fouille de données spatiales, les hypothèses de stationnarité concernent l'espérance mathématique d'un processus (stationnarité d'ordre un), et la covariance (stationnarité d'ordre deux). Si \Zeta(x) est un champ aléatoire, on dit que \Zeta(x) est stationnaire au premier ordre si \Epsilon[(\Zeta(x)]=Cste pour tout x. Ce champ est stationnaire de second ordre s'il est stationnaire de premier ordre et si Cov(\Zeta(x),\Zeta(x+h))=C(h)[55].

T[modifier | modifier le code]

La triangulation de Delaunay et les cercles circonscrits aux triangles

Triangulation de Delaunay (« Delaunay Triangulation ») : Partition de l'espace de points créée en joignant les plus proches voisins de chaque point de telle manière qu'aucun point ne soit contenu dans le cercle circonscrit de chaque triangle[56].

V[modifier | modifier le code]

Variable catégorielle ( « categorical variable ») : variable pouvant prendre un nombre restreint de valeurs, comme les couleurs par exemple. On parle aussi de variable qualitative ou discrète.

Variable continue ( « Continuous variable ») : variable pouvant prendre un nombre infini de valeurs, comme un prix par exemple.

Variable dépendante ( « Dependent variable ») : variable cible ou variable à expliquer dont on veut estimer les valeurs en fonctions d'autres variables dites explicatives. On parle aussi de variable cible ou variable réponse[57] .

Variable indépendante ( « Independent variable ») : variable explicative permettant d'estimer une variable cible. On parle aussi de variable explicative, de contrôle, réponse[57].

Voisinage (« Neighborhood ») : c'est l'ensemble des zones (ou des points) proches de la zone (ou du point) de référence. En termes de contiguïté, dans le cadre de grilles (raster ou autres), le voisinage de 8 cellules est appelé voisinage de la Reine, celui des 4 cellules Nord-Sud et Ouest-Est est dénommé voisinage de la Tour et celui des angles est appelé voisinage du Fou. Le voisinage du Fou complété par le voisinage de la Tour revient au voisinage de la Reine[58].

Variogramme (« Variogram ») : notée  \gamma (h), cette fonction est une mesure de la dissimilarité[59] ou de la continuité[60] en analyse spatiale. Si \Zeta(x) est une variable aléatoire au point x, alors le variogramme est défini par :

  \gamma (h) = \frac{1}{2} \Epsilon[(\Zeta(x+h) - \Zeta(x))^2]

Intelligence artificielle[modifier | modifier le code]

Sommaire : Haut - A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

Dans ce paragraphe est listé le vocabulaire spécifique à l'intelligence artificielle et les concepts issus de l'IA et utilisés dans le data mining.

A[modifier | modifier le code]

Algorithme génétique[61] (« Genetic algorithm ») : C'est un algorithme de recherche heuristique inspiré de l'évolution naturelle. Il est employé dans le domaine de la recherche de solutions approchées dans les problèmes d'optimisation. Il utilise des techniques comme l'héritage, la mutation, la sélection et l'enjambement.

Apprentissage incrémental (« incremental learning ») : Un classifieur utilise l'apprentissage incrémental quand, lors de l'arrivée de nouveaux items, il est capable d'évoluer sans pour cela que l'apprentissage soit à refaire entièrement[62].

Apprentissage supervisé (« Supervised learning ») : c'est une stratégie d'apprentissage qui consiste à apprendre par l'exemple. Un enseignant (quelqu'un qui apprend quelque chose au système) aide le système à construire le modèle recherché en lui fournissant les classes et les exemples qui caractérisent chaque classe. Le système en déduit les descriptions de chaque classe pour que les descriptions et les classes forment les règles de classification qui serviront à classer les nouveaux arrivants[63].

Apprentissage non supervisé (« Nonsupervised learning ») : c'est une stratégie d'apprentissage qui consiste à apprendre par l'observation et la découverte. Le système se débrouille seul avec les arrivants, aucune classe n'est fournie; il doit donc analyser les exemples et découvrir les schémas et les caractéristiques de chaque arrivant et les classer selon ces caractéristiques[63].

B[modifier | modifier le code]

Bagging (« Bagging ») : ou « Bootstrap aggregating » est la technique qui consiste à la création de plusieurs modèles sur des échantillons « bootstrap », puis à combiner les résultats. Cette technique est destinée à l'amélioration de l'exactitude[DM 2] de la classification et/ou de la prédiction d'un modèle en apprentissage automatique.

D[modifier | modifier le code]

Dérive conceptuelle (« Concept drift ») : En Fouille de flots de données, et en Apprentissage automatique la dérive conceptuelle fait référence aux changements - dans les propriétés statistiques des variables cibles, en général - qui interviennent au cours du temps de manière imprévue[64].

F[modifier | modifier le code]

Feuille (« leaf ») : Dans un arbre de classification, tout nœud qui n'est pas segmenté.

Forêt d'arbres décisionnels (« Random forest ») :

« Les Forêts d'arbres décisionnelles sont formées d'une combinaison d'arbres estimateurs tels que chaque arbre dépend des valeurs d'un vecteur aléatoire échantillonné indépendamment et ayant la même distribution pour tous les arbres de la forêt. »

— Leo Breiman, Random Forests[65]


I[modifier | modifier le code]

Intelligence artificielle (« Artificial Intelligence ») : Le domaine scientifique qui a pour but la création de comportements intelligents dans une machine.

N[modifier | modifier le code]

Nœud racine (« Root node ») : le début d'un arbre de décision; le nœud racine détient l'ensemble des données avant qu'elles ne soient découpées dans l'arbre.

R[modifier | modifier le code]

Règle de Hebb (« Hebbian Learning ») : Cette règle d'apprentissage des réseaux de neurones précise que les poids entre deux neurones augmentent quand ils sont excités simultanément et décroissent dans le cas contraire.
Réseaux de Kohonen (« Kohonen Networks ») : Un type de réseau de neurones où la localisation d'un nœud est calculée par rapport à ses voisin; la localité d'un nœud est très importante dans l'apprentissage; les réseaux de Kohonen sont souvent utilisés en clustering.
Réseaux Neuronaux (« Neural Network ») : Un modèle basé sur l'architecture du cerveau. Un réseau Neuronal consiste en multiples unités de calcul simples connectés par des poids adaptatifs.
Réseaux Neuronaux à base radiale « Radial basis function neural Network ») : c'est un réseau neuronal (voir ci-dessus) utilisant une couche cachée constituée de fonctions à base radiale[66],[67], et une sortie combinaison linéaire des sorties des fonctions à base radiale. Ils sont caractérisés par un apprentissage rapide et un réseau compact[68],[69].
Résumés (« Summaries ») : En Fouille de flots de données c'est un ensemble de techniques permettant d'explorer le flot de données sur un nombre restreints d'éléments sans pour cela ralentir le flot, et dans un système limité en mémoire et en puissance. Les techniques se nomment échantillonnage aléatoire, résumé (sketching), synopsis ( histogramme, analyses par ondelettes, quantiles et fréquences)[70],[71].
Rétro-Propagation (« Back Propagation ») : Un des algorithmes d'apprentissage les plus usités pour la préparation des réseaux de neurones


Statistique[modifier | modifier le code]

Sommaire : Haut - A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

Dans ce paragraphe est listé le vocabulaire spécifique aux statistiques et les concepts issus des statistiques et utilisés dans le data mining.

A[modifier | modifier le code]

Analyse des données (« Exploratory Data Analysis ») : L'analyse des données est le processus qui consiste à examiner, nettoyer, transformer, et modéliser les données dans le but d'en extraire de l'information utile, de suggérer des conclusions, de prendre des décisions. Le Data mining est une technique spécifique d'analyse des données qui se concentre sur la modélisation et l'extraction de connaissances dans un but prédictif plutôt que descriptif, bien qu'une partie du processus de data mining nécessite la description des données.
Analyse Factorielle (« Factor Analysis ») : voir Analyse factorielle.

B[modifier | modifier le code]

Boostrapping[72] (« Bootstrap method ») : C'est une méthode de ré-échantillonnage permettant d'obtenir une distribution d'échantillons pour un paramètre, au lieu d'une seule valeur de l'estimation de ce paramètre.

C[modifier | modifier le code]

Colinéarité (« Collinearity ») : Deux variables sont colinéaires si elles sont corrélées sans qu'une relation de cause ne soit établie entre elles.

Méthode du coude : Quand une grandeur est exprimée en fonction d'une autre, sans qu'il y ait de maximum absolu ou local, et qu'il faut choisir une valeur pertinente optimale du couple des deux grandeurs, la méthode du coude, empirique, consiste à choisir les valeurs où la courbe s'infléchit. On utilise cette méthode dans le cas de l'analyse factorielle pour prendre en compte le nombre d'axes idéal en fonction des valeurs propres, ou bien dans le choix d'un nombre de classes en fonction de l'indice R^2 en classification automatique.

Courbe de lift (« lift chart ») : c'est un résumé visuel de l'utilité des modèles statistiques et de data mining pour la prédiction d'une variable catégorielle. Elle sert à mesurer la performance d'un modèle. (voir courbe ROC et indice de Gini)

Courbe ROC[40] (« ROC curve ») : La courbe ROC (« Receiver Operating Characteristics ») nous vient des ingénieurs US du traitement du signal qui l'ont inventée pendant la seconde guerre mondiale et depuis elle a été utilisée en médecine, radialogie, psychologie et maintenant en data mining. Sur l'axe des Y on représente les vrais évènements détectés et sur l'axe des X les faux évènements détectés (les erreurs de détection). Elle sert à mesurer la performance d'un estimateur ou d'un modèle[73].

E[modifier | modifier le code]

Ensemble flou (« Fuzzy Set ») : Ils servent à modéliser la représentation humaines des connaissances[74].

F[modifier | modifier le code]

Fonction base (« basis function ») : Fonction impliquée dans l'estimation de la Régression multivariée par spline adaptative (MARS). Ces fonctions forment une approximation des relations entre les estimateurs et les variables estimées[75].


G[modifier | modifier le code]

Indice de Geary (« Geary index » ou « Geary's C ») : indice de mesure de l'autocorrélation spatiale en fouille de données spatiales[Géo 6]. Il s'exprime comme le rapport de la variance locale (celle des mesures entre voisins de l'échantillon) à la variance totale des mesures de l'échantillon[76]. Si (x_{i})_{(i=1:n)} est un échantillon de mesures spatiales, l'indice c de Geary s'exprime ainsi :

c = \frac{\frac{1}{2\sum_{i \neq i}c_{ij}}\sum_{i \neq j} c_{ij} (x_{i}-x_{j})^2}{\frac{1}{n-1}{\sum_{i = 1}^n (x_{i}- \bar x)^2}}

c_{ij}=1 si i et j sont voisins, c_{ij}=0 sinon

.

H[modifier | modifier le code]

Inégalité de Hoeffding (« Hoeffding’s inequality ») : L'inégalité de Hoeffding sert à la mesure de l'erreur d'un estimateur.
Définition : Soient  X_1,  X_2, ...,  X_n, n variables aléatoires indépendantes, de distribution identique, telles que 0 \le X_i \le 1 tendant vers une variable aléatoire X , Alors

\Pr [ |  \frac 1n \sum_{i=1}^n X_i -  \Epsilon [ X ] | > \epsilon ] \le \delta = 2\exp(-2n \epsilon ^2)


Théorème : Supposons que  n \ge \frac 1{2\epsilon^2}\log \frac 2\delta Alors, avec une probabilité supérieure ou égale à 1 - \delta, la différence entre la moyenne empirique \frac 1n \sum_{i=1}^n X_i et la moyenne \Epsilon [ X ] est au plus égale à \epsilon.

  • la précision \delta nous dit de combien nous sommes éloigné de la moyenne réelle de la variable aléatoire X
  • la confiance \epsilon nous dit avec quelle probabilité nous nous trompons[77].

I[modifier | modifier le code]

Indépendance statistique (« Independence (statistical) ») : Deux évènements sont indépendants s'ils n'ont aucune influence l'un sur l'autre.

X et Y sont deux variables indépendantes  \Leftrightarrow \Pr (X \cap Y) = \Pr (X) \cdot \Pr (Y).


J[modifier | modifier le code]

Jackknife[72] (« Jackknife method ») : C'est une méthode de ré-échantillonnage, analogue à celle du bootstrapping, qui diffère de celle-ci seulement par la méthode de sélection des différents échantillons.

L[modifier | modifier le code]

Logique floue (« Fuzzy Logic ») : La logique floue est une technique, formalisée par Lotfi Zadeh, utilisée en intelligence artificielle. Elle s'appuie sur les ensembles flous.

M[modifier | modifier le code]

Modèle (« Model ») : Une description qui explique et prédit convenablement des données pertinentes mais qui est généralement moins volumineuse que les données elles-mêmes.

Modèle de Markov caché (« HMM » ou « Hidden Markov Model ») : C'est un processus qui permet de déterminer les paramètres cachés d'un système à modéliser supposé être un processus de Markov. Les Modèles de Markov cachés ont été utilisés pour la première fois dans la reconnaissance de la parole dans les années '70, il est aussi utilisé en fouille de texte[78].

Indice de Moran (« Moran index » ou « Moran's I ») : indice de mesure de l'autocorrélation spatiale en fouille de données spatiales[Géo 7]. Il s'exprime comme le rapport de la covariance locale (celle des mesures entre voisins de l'échantillon) à la variance totale des mesures de l'échantillon[76]. Si (x_{i})_{(i=1:n)} est un échantillon de mesures spatiales, l'indice I de Moran s'exprime ainsi :

I = \frac{\frac{1}{\sum_{i \neq i}c_{ij}}\sum_{i \neq j} c_{ij} (x_{i}-\bar x)(x_{j}-\bar x)}{\frac{1}{n}{\sum_{i = 1}^n (x_{i}- \bar x)^2}}

c_{ij}=1 si i et j sont voisins, c_{ij}=0 sinon

.

R[modifier | modifier le code]

Robustesse (« Robustness ») : Un modèle statistique, un algorithme, un processus est dit robuste s'il produit des résultats justes en moyenne et s'il n'est pas sensible aux données ayant des problèmes. Dans le cas contraire on parle de modèle instable.

Indice de Ripley (« Rispley'K ») : créé par Brian Ripley, il permet d'analyser les motifs de points, effectuer des tests d'hypothèses, estimer des paramètres et ajuster des modèles[79],[Géo 8].

K(r) =  \frac{1}{n}\sum_{i=1}^n \frac{\Nu _{i}(r)}{\lambda}

\Nu _{i}(r) est le nombre de points / évènements dans un cercle de rayon r centré sur le point i[80].

S[modifier | modifier le code]

Statistique bayésienne (« Bayesian statistics ») : Une approche des statistiques fondée sur la loi de Bayes. Le théorème de Bayes exprime la probabilité de l'évènement A connaissant l'évènement B de la manière suivant :

\Pr (A|B) = \frac{\Pr (B | A) \Pr (A)}{\Pr (B)}

T[modifier | modifier le code]

Taux d'erreur (« Error Rate ») : Un nombre indiquant l'erreur faite par un modèle prédictif.
Test d'hypothèse (« Hypothesis Testing ») : voir Test d'hypothèse

Voir aussi[modifier | modifier le code]

Notes[modifier | modifier le code]

Fouilles de données (en général)[modifier | modifier le code]

  1. voir Précision
  2. voir Exactitude ci-dessus



Fouilles de données Géographiques[modifier | modifier le code]

  1. voir Voisinage
  2. voir Voisinage
  3. voir aussi Interpolation spatiale dans ce glossaire
  4. Voir la dépendance spatiale aussi pour une autre caractéristique de l'espace géographique.
  5. Voir aussi Colocalisation
  6. voir Indice de Moran et Indice de Ripley
  7. voir Indice de Geary et Indice de Ripley
  8. voir Indice de Geary et Indice de Moran



Autres[modifier | modifier le code]


Références[modifier | modifier le code]

  1. [PDF](en) Zengyou He, Xiaofei Xiu, Schengchung Deng, « A FP-Tree based approach for mining all correlated pairs without candidate generator » (consulté le 17 août 2011)
  2. [PDF](en) Brian Babcock, Shivnath Babu, Mayur Datar, Rajeev Motwani, Jennifer Widom, « « Models and Issues in Data Stream Systems » » (consulté le 8 octobre 2011)
  3. [PDF](en) Chih-Hsiang Lin, Ding-Ying Chiu, Yi-Hung Wu, Arbee L. P. Chen, « « Mining Frequent Itemsets from Data Streams with a Time-Sensitive Sliding Window » » (consulté le 8 octobre 2011)
  4. Glossaire anglais-Français
  5. (en) Searsr, « Text mining » (consulté le 8 octobre 2011)
  6. (en) Salford Systems, « Do Splitting Rules Really Matter? » (consulté le 8 octobre 2011)
  7. (en) Leo Breiman, « « Technical Note: Some Properties of Splitting Criteria » » (consulté le 8 octobre 2011)
  8. [PDF](en) Arthur J. Lembo, Jr, « « Spatial Autocorrelation, Moran's I Geary's C » » (consulté le 8 octobre 2011)
  9. Stephen P. Borgatti, « Multidimensional Scaling »,‎ 1997 (consulté le 14 août 2011)
  10. a, b, c et d Robert Nisbet, John Elder, Gary Miner, Handbook of Statistical Analysis & Data Mining Applications édition 2009, Academic Press, Page 789 et suivantes
  11. [PDF](en) N. Wrigley, « « Probability Surface mapping. An Introduction with Examples and Fortran Programme » »,‎ 1977 (consulté le 8 octobre 2011)
  12. SOM, « Surface de Tendances Polynomiales » (consulté le 8 octobre 2011)
  13. Stéphane Tufféry, Data mining et Statistique décisionnelle
  14. Hanady Abdulsalam, Streaming Random Forests
  15. Arnaud Soulet, Découverte de motifs sous contraintes
  16. a et b Mohammad El-Ha jj, Osmar R. Za¨ıane, Bi-Directional Constraint Pushing in Frequent Pattern Mining
  17. a et b Jérémy Besson, Céline Robardet, Jean-François Boulicaut, Un algorithme générique d'extraction de bi-ensembles sous contraintes dans des données booléennes
  18. Bing Liu, Web Data Mining, Springer, Édition 2010, pages 135-138
  19. Maxime Chambreuil, (exemples de Dendrogrammes) Classification Hiérarchique Ascendante
  20. Miller et Han 2009, p. 11
  21. [PDF] (en) Justin Ngan, Byron Moldofsky, « Sampling Choices and Implications » (consulté le 15 août 2011).
  22. [ Jing Gao1, Wei Fan2, Jiawei Han1, On the Power of Ensemble: Supervised and Unsupervised Methods Reconciled
  23. Bing Liu, Web Data Mining, Springer, Édition 2010, pages 62-67
  24. Michael May, Research Challenges in Ubiquitous Knowledge Discovery
  25. a, b et c Ruoming Jin, Cagan Agrawal, ��Frequent Pattern Mining in Data Stream
  26. Jiawei Han, Micheline Kamber, Data Mining: Concepts and Techniques
  27. WW Moe, PS Fader (2004), “Capturing Evolving Visit Behavior in Clickstream DataJournal of Interactive Marketing (2004)
  28. Clickstream Study Reveals Dynamic Web
  29. Miller et Han 2009, p. 11
  30. Jennifer A. Miller, « Spatial non-stationarity and the scale of species-environment relationships in the Mojave Desert, California, USA »,‎ 2009 (consulté le 16 août 2011)
  31. SOM, « Les types d'interpolation spatiales »,‎ 2009 (consulté le 16 aout 2011)
  32. Penn State - College of Earth and mineral Sciences, « Interpolation »,‎ 2010 (consulté le 28 août 2011)
  33. (en) sppsr.ucla.edu, « « A few Interpolation methods » »,‎ 2007 (consulté le 28 août 2011)
  34. (en) Arcgis Resource center, « « How local polynomial interpolation works » »,‎ 2011 (consulté le 29 août 2011)
  35. [PDF]Sophie Baillargeon, « Le krigeage : revue de la théorie et application à l'interpolation spatiale de données de précipitations »,‎ 2005 (consulté le 9 septembre 2011)
  36. [PDF](en) Geoff Bohling, « « Kriging » »,‎ 2005 (consulté le 8 septembre 2011)
  37. Ferenc Sárközy, « « The kriging » »,‎ 1998 (consulté le 8 septembre 2011)
  38. Xavier Guyon, « Statistique spatiale »,‎ 2007 (consulté le 9 septembre 2011)
  39. statsoft , Mahalanobis distance
  40. a et b César de Souza, Discriminatory Power Analysis by Receiver-Operating Characteristic Curves
  41. R. Eisner, Basic Evaluation Measures for Classifier Performance
  42. [PDF]Hubert Jayet, « Économétrie et données spatiales »,‎ 2001 (consulté le 14 août 2011), p. 109
  43. Claude Grasland, « Les Modèles d'interaction Spatiale »,‎ 2004 (consulté le 14 août 2011)
  44. Rakesh Agrawal, Ramakrishnan Srikant, Mining Sequential Patterns
  45. F. Masseglia, M. Teisseire, P. Poncelet, Extraction de motifs séquentiels
  46. Sophie Rosset, Mesure Cosinus
  47. C. Justicia de la Torre, M.J. Martin-Bautista, D. Sanchez, M.A. Vila, Text Mining: Intermediate Forms for Knowledge Representation
  48. (en) Ferenc Sárközy, « « GIS functions - Interpolation » »,‎ 1998 (consulté le 28 août 2011)
  49. (en) Karl Yorgason, « First Law of Geography »,‎ 2010 (consulté le 28 aout 2011)
  50. Wei-Yin Loh, Yu-Shan Shih Split Selection Methods for Classification Trees
  51. Vincent Zoonekynd Vincent Zoonekynd's Blog, Fri, 16 Oct 2009: Use R 2009 Conference, page 5
  52. (en) volusia county government, « Spatial Overlay » (consulté le 14 aout 2011)
  53. [PDF](en) Vania Bogorny, « Enhancing Spatial Association Rule Mining in a Geographic Databases » (consulté le 8 octobre 2011)
  54. Philippe Leray, Le Clustering en 3 leçons
  55. [PDF]Xavier Guyon, « statistique spatiale »,‎ 2007 (consulté le 11 septembre 2011)
  56. (en) Nicolas Dumoulin, Michaël Ortega, « Triangulation de Delaunay » (consulté le 7 octobre 2011)
  57. a et b Stéphane Tufféry, Data Mining et statistique décisionnelle Troisième édition page 297, aux éditions Technip
  58. (en) M.Sawada, « Global Spatial Autocorrelation Indices - Moran's I, Geary's C and the General Cross-Product Statistic » (consulté le 14 aout 2011)
  59. [PDF](en) Geoff Bohling, « « Introduction to Geostatistics and Variogram Analysis » »,‎ 2005 (consulté le 10 septembre 2011)
  60. [PDF]Denis Marcotte, « Le Variogramme »,‎ 2011 (consulté le 10 septembre 2011)
  61. Genetic algorithm on Wiki
  62. Gregory Hulley, Tshilidzi Marwala, Evolving Classifiers: Methods for Incremental Learning
  63. a et b Kapil Wankhade, Snehlata Dongre, « Data Streams Mining, Classification and Application », édition 2010 Lambert, page 9
  64. Alexey Tsymbal, The problem of concept drift: definitions and related work
  65. Leo Breiman, Random Forests
  66. Bradley John Charles Baxter, The interpolation theory of radial basis functions
  67. Cartier-Michaud Thomas, Teffah Zakaria Introduction aux fonctions de base radiale
  68. S. Haykin, Neural Networks: A comprehensive Foundation, New York : Macmillan Publishing, 1994
  69. M.Boukadoum, Réseaux de neurones à base radiale
  70. Mohamed Medhat Gaber, Arkady Zaslavsky, Shonali Krishnaswamy, Mining Data Streams: A Review
  71. Dariusz Brzeziński, Mining data streams with concept drift
  72. a et b Peter Young, Jackknife and Bootstrap Resampling Methods in Statistical Analysis to Correct for Bias
  73. César de Souza, Discriminatory Power Analysis by Receiver-Operating Characteristic Curves (Part 2 of 2: C# Source Code)
  74. Ensembles flous
  75. Christine Thomas-Agnan, Estimateurs splines
  76. a et b [PDF]Arnaud Banos, « De l’exploration à la prospective : essai de généralisation spatiale de la demande de transport »,‎ 2011 (consulté le 17 septembre 2011)
  77. Justin Domke, Learning Theory
  78. Krishnalal G, S Babu Rengarajan, K G Srinivasagan, A New Text Mining Approach Based on HMM-SVM for Web News Classification
  79. Philip M. Dixon, « « Ripley’s K function » »,‎ 2011 (consulté le 18 septembre 2011)
  80. [PDF](en) Maria A. Kiskowski, John F. Hancock,Anne K. Kenworthy, « « On the Use of Ripley’s K-Function and Its Derivatives to Analyze Domain Size » »,‎ 2009 (consulté le 18 septembre 2011)

Bibliographie[modifier | modifier le code]

  • (en) Harvey Miller et Jiawei Han, Geographic Data Mining and Knowledge Discovery, Boca Raton, CRC Press,‎ 2009, 458 p. (ISBN 978-1-4200-7397-3).Document utilisé pour la rédaction de l’article