Normalisation quantile

Définition – Que signifie la normalisation quantile? La normalisation quantile est une technique de traitement des données qui fonctionne sur des puces à ADN ou de petits ensembles de données. Ce processus statistique peut être utilisé comme base pour certains types de projets d’apprentissage automatique. Definir Tech explique la normalisation quantile L’utilisation de la normalisation … Lire la suite

Traitement en mémoire (pim)

Définition – Que signifie le traitement en mémoire (PIM)? Le traitement en mémoire (PIM) est un processus par lequel les calculs et le traitement peuvent être effectués dans la mémoire d’un ordinateur, d’un serveur ou d’un appareil associé. Il permet un traitement plus rapide des tâches qui résident dans le module de mémoire de l’ordinateur. … Lire la suite

Mélange de données

Définition – Que signifie la fusion de données? La pratique du mélange de données implique de prendre des données de différentes sources et de les compiler dans un seul ensemble de données utiles et normalisées. C’est un élément majeur de la stratégie à l’ère du Big Data, car les entreprises travaillent avec des volumes de … Lire la suite

Vidage de la mémoire

Définition – Que signifie le vidage de la mémoire? Un vidage de la mémoire est un processus dans lequel le contenu de la mémoire est affiché et stocké en cas de panne d’une application ou d’un système. Le vidage de la mémoire aide les développeurs de logiciels et les administrateurs système à diagnostiquer, identifier et … Lire la suite

Couche d’infrastructure

Définition – Que signifie la couche infrastructure? La couche infrastructure permet à un système logiciel d’interagir avec des systèmes externes en recevant, stockant et fournissant des données sur demande. Cependant, la couche infrastructure n’est pas la seule couche qui permet au système de se connecter à d’autres systèmes. Il existe également d’autres composants impliqués dans … Lire la suite