Éditorial

Éditorial

Olivier TESTE

Université Toulouse 2

|
| |
Published: 
28 February 2018
| Citation
Éditorial

Les systèmes d’informations (SI) sont au cœur des grandes organisations. Ils remplissent différentes tâches de collecte, de stockage, de traitement et de mise à disposition de l’information au sein des entreprises et des administrations. Les SI couvrent ainsi un grand nombre de problématiques des sciences et technologies de l’information et de la communication. Au cours des dernières décennies, la généralisation des technologies de l’information au travers de réseaux mondialisés, la diffusion massive de moyens de communications mobiles, et le développement d’objets autonomes connectés, permettent aux organisations mais aussi à chacun, de partager volontairement ou non, des données et des connaissances. L’humanité produit des quantités de données dans des proportions et avec un rythme sans commune mesure avec le passé. Ce nouvel environnement met en cause bon nombre d’approches classiques dans les systèmes d’information qui doivent faire face à des données très variables, structurées ou non, brutes ou plus élaborées, parfois imparfaites, non vérifiées, plus au moins persistantes, volatiles et dynamiques. Les masses de données disponibles aujourd’hui représentent des volumes disparates difficilement accessibles aux méthodes et outils traditionnels. 

Dans ce numéro spécial de la revue Ingénierie des Systèmes d’Information nous avons rassemblé quatre articles en versions étendues des travaux présentés lors du congrès INFORSID’17 qui s’est déroulé à Toulouse du 30 mai au 2 juin 2018. 

Les entreprises se doivent de nos jours de relever le défi de traiter des quantités croissantes de données numériques. L’article « Synthèse des méthodes de conduite de projets Big Data et des retours collectés lors de pilotes industriels » écrit par C. Ponsard et al. propose un guide basé sur une série de briques méthodologiques émanant de la foisonnante littérature traitant des solutions technologiques dédiées aux Big Data. L’article reporte un retour d’expérience mené dans quatre domaines applicatifs de l’IT, la santé, le spatial et l’agroalimentaire, donnant une vision concrète de la mise en œuvre de ce type d’approche.

L’intégration de modèles consiste à regrouper au sein d’un unique modèle l’ensemble des entités métiers de plusieurs modèles. L’article « Unions et intersections de modèles pour l’analyse des systèmes d’information » écrit par A. Miralles et al. propose cinq opérations, réalisées à l’aide de l’analyse formelle de concepts, pour assister cette intégration et améliorer les modèles structurels. Les opérations union et intersection proposées reposent sur des mécanismes basés soit sur la sémantique des entités métiers, soit sur la description binaire de ces entités.

L’anonymisation des données personnelles est un enjeu essentiel pour lequel de nombreux algorithmes ont été proposés. Ils visent à minimiser le risque de ré-identification tout en préservant l’utilité des données. Dans l’article « Anonymisation de données par généralisation. Méthode avec guidage » écrit par F. Ben Fredj et al. une approche fondée sur les modèles est proposée afin de guider l’éditeur de données dans le processus d’anonymisation. Le guidage, informatif ou suggestif, permet de choisir l’algorithme le plus pertinent, mais aussi de paramétrer cet algorithme en tenant compte de caractéristiques sur les données et en fonction du contexte. L’article se focalise sur les algorithmes de généralisation de micro-données. Une ontologie capitalise toutes les connaissances liées à l’anonymisation extraites à partir d’un processus de rétro-ingénierie appliqué aux outils existants. 

Les tâches menées par les utilisateurs de systèmes d’information peuvent être facilitées par des recommandations. Le système de recommandation peut notamment suivre l’intérêt des utilisateurs en fonction du contexte dans lequel ils se trouvent. L’article « Filtrage collaboratif sensible au contexte. Une approche basée sur LDA » écrit par J. Mothe et al. présente un système hybride qui combine le système de recommandations sensibles aux contextes et le filtrage collaboratif. Le contexte est défini comme l’intention de l’utilisateur ; le contexte est modélisé par une approche Latent Dirichlet Allocation (LDA) qui génère un modèle de thèmes pour chaque intention. L’approche proposée est évaluée sur la collection book-crossing, montrant son intérêt par rapport à différentes méthodes existantes. 

Nous espérons que ce numéro montre la variété des travaux de recherches menés dans les systèmes d’information, constituant un vaste champ disciplinaire, portant des enjeux de recherche relatifs à différentes disciplines. En tant qu’éditeur invité, nous remercions très chaleureusement tous les auteurs pour leur participation, et les membres du comité de lecture pour leurs précieuses évaluations. 

COMITÉ DE LECTURE

Faten Atigui – CEDRIC, CNAM Paris

Khalid Benali – LORIA, Université de Lorraine

Max Chevalier – IRIT, Université Toulouse 3 Paul Sabatier

Rebecca Deneckere – CRI, Université Paris 1 Panthéon Sorbonne

Faiza Ghozzi-Jedidi – MICRAL, Université de Sfax, Tunisie

Akram Idani – LIG, Institut polytechnique de Grenoble

Sofian Maabout – LaBRI, Université de Bordeaux

André Miralles – IRSTEA, Antony

Noël Novelli – LIF, Université Aix-Marseille

Véronika Peralta – LI, Université de Tours

François Pinet – IRSTEA, Antony

Nicolas Prat – ESSEC Business School, Cergy

Philippe Ramadour – LSIS, Université Aix-Marseille

Florence Sèdes – IRIT, Université Toulouse 3 Paul Sabatier

Christine Verdier – SIGMA-LIG, Grenoble