étincelle apache

Définition – Que signifie Apache Spark? Apache Spark est un programme open source utilisé pour l’analyse des données. Il fait partie d’un plus grand ensemble d’outils, y compris Apache Hadoop et d’autres ressources open source pour la communauté analytique d’aujourd’hui. Les experts décrivent ce logiciel open source relativement nouveau comme un outil de calcul de … Lire la suite

Renseignements personnels sur la santé (phi)

Définition – Que signifient les renseignements personnels sur la santé (RPS)? Les renseignements personnels sur la santé (PHI) sont une catégorie d’informations qui se réfèrent aux dossiers médicaux et aux antécédents médicaux d’un individu, qui sont protégés en vertu de la loi sur la portabilité et la responsabilité de l’assurance maladie (HIPAA). La protection des … Lire la suite

Vue carte thermique

Définition – Que signifie la vue Carte de chaleur? Une vue de carte thermique est une vue d’un tableau de bord visuel particulier où des ensembles de données sont représentés avec un codage couleur différent, de la même manière qu’une image thermique représente la chaleur. Dans beaucoup de ces vues de carte thermique, les téléspectateurs … Lire la suite

K-signifie clustering

Définition – Que signifie Clustering K-Means? Le clustering K-means est un simple algorithme d’apprentissage non supervisé utilisé pour résoudre les problèmes de clustering. Il suit une procédure simple de classification d’un ensemble de données donné en un nombre de clusters, défini par la lettre «k», qui est fixée au préalable. Les clusters sont ensuite positionnés … Lire la suite

Données contextuelles

Définition – Que signifient les données contextuelles? Les données contextuelles sont des données qui donnent un contexte à une personne, une entité ou un événement. Il est couramment utilisé par les universités afin de déterminer le potentiel académique des candidats ainsi que par les organisations commerciales pour les études de marché et les prévisions. Les … Lire la suite

Hadoop commun

Définition – Que signifie Hadoop Common? Hadoop Common fait référence à la collection d’utilitaires et de bibliothèques communs qui prennent en charge d’autres modules Hadoop. Il s’agit d’une partie ou d’un module essentiel de Apache Hadoop Framework, avec le système de fichiers distribués Hadoop (HDFS), Hadoop YARN et Hadoop MapReduce. Comme tous les autres modules, … Lire la suite

Analyse continue en temps réel

Définition – Que signifie l’analyse continue en temps réel? L’analyse en temps réel continue fait référence à une catégorie spécifique d’analyse en temps réel qui apporte des résultats continuellement mis à jour ou actualisés à un utilisateur, plutôt que de réagir passivement aux événements de l’utilisateur. En général, l’analyse en temps réel est la présentation … Lire la suite

Téraoctets par seconde (tbps)

Définition – Que signifie téraoctets par seconde (TBps)? Les téraoctets par seconde (TBps) font référence à un débit de transmission de données équivalent à 1,000 1,000,000,000,000 gigaoctets ou XNUMX XNUMX XNUMX XNUMX XNUMX d’octets par seconde. Ce taux de transfert de données extrêmement rapide est utilisé pour quantifier divers types de transmission de données entre … Lire la suite

Audit natif

Définition – Que signifie Native Audit? Dans le monde de la sécurité des bases de données, «audit natif» est un terme désignant des outils et des ressources permettant aux administrateurs de mener un audit interne de l’activité des bases de données. Les systèmes de gestion de bases de données relationnelles conventionnelles sont fournis avec ces … Lire la suite

Ingénieur du savoir

Définition – Que signifie Knowledge Engineer? Un ingénieur du savoir est un professionnel engagé dans la science de la construction d’une logique avancée dans les systèmes informatiques afin d’essayer de simuler la prise de décision humaine et des tâches cognitives de haut niveau. Un ingénieur des connaissances fournit une partie ou la totalité des «connaissances» … Lire la suite