Plénières de COSI - 2013
Professeur Alexandre Dolgui - Ecole des Mines de Saint-Etienne, France
Nicolas
Schabanel - Directeur de recherches CNRS, LIAFA, Université Paris
Diderot, France
3- Data Oriented Approach for Pattern
Mining - toward a paradigm
shift -
Session indutrielle : Big data analytics
Utilisation des techniques d’optimisation combinatoire et des modèles stochastiques pour le paramétrage des logiciels MRP (Manufacturing Resource Planning)
Professeur Alexandre Dolgui Ecole des Mines de Saint-Etienne, France
Résumé. Dans les
entreprises, les logiciels utilisant le principe MRP sont souvent
employés pour gérer les stocks et leurs approvisionnements. Mais les
techniques de MRP ont été conçues pour un fonctionnement déterministe
en juste à temps. Pour le cas où il aurait des aléas, il faut savoir
paramétrer ces logiciels pour minimiser le coût total de fonctionnement
qui est souvent composé du coût de stockage et du coût de rupture de
stocks. Nous montrons comment certaines techniques d’optimisation
combinatoire appliquées aux modèles stochastiques peuvent nous aider à
trouver des valeurs optimales des paramètres de MRP. Nous illustrons
notre exposé avec des résultats que nous avons obtenus pour la
recherche des valeurs optimale des temps de cycle planifiés pour les
systèmes d’assemblage avec délais aléatoires de livraison de
composants. Notre approche d’optimisation se base sur la recherche des
propriétés de dominance pour réduire l’espace de recherche de
solutions ainsi que des bornes inférieures et supérieures de la
fonction coût. La résolution est alors basée sur une Procédure par
Séparation et Evaluation (PSE). Nous montrons également les cas
particuliers quand les solutions optimales peuvent être trouvées sous
forme analytique sans faire recours à PSE, en utilisant des nouvelles
extensions du modèle Newsboy.
Biographie.
Alexandre Dolgui
Professeur de
classe exceptionnelle, Directeur délégué Recherche de l'Institut Henri
Fayol, Directeur adjoint de l'UMR CNRS 6158 LIMOS, Ecole des Mines de
Saint-Etienne.
Diplômes: Ingénieur de l'Université d'Etat en
Informatique et Radio-électronique de Biélorussie, Docteur de
l'Académie Nationale des Sciences de Biélorussie, HDR de l'Université
de Technologie de Compiègne.
30 ans de carrière d’enseignant
chercheur ; Première publication en 1982 ; Première communication et
prix en 1983 (meilleure présentation à la conférence de jeunes
chercheurs des pays Baltes, Biélorussie et Moldavie à Riga en Lettonie)
; Premier article en revue en 1986 ; Au total plus de 650 publications
et communications ; Principales revues où les publications sont faites
: European Journal of Operational Research, IIE transactions,
International Journal of Production Research, International Journal of
Production Economics, Computers and Operations Research, Computers and
Industrial Engineering, Journal of Scheduling, Discrete Applied
Mathematics, Annals of Operations Research, Journal of Operational
Research Society, Optimization Letters, Computational Optimization and
Applications, etc. Auteur de 5 livres ; Editeur de 12 livres et
de 18 numéros spéciaux de revues internationales ; Membre de Comité de
Programme de plus de 150 conférences internationales ; Prix
internationaux et nationaux ; Prix meilleure thèse ; Plus de 140 jurys
de thèses de doctorat et d’HDR en France, en Espagne, en Belgique, en
Chine, en Italie, au Canada, en Roumanie, en Tunisie et en Pologne.
Editeur en chef de International Journal of Production Research,
Editeur Associé de Omega et Computers and Industrial Engineering,
membre de Editorial Board de 13 autres revues internationales ;
Board Membre de International Foundation for Production Research,
Président du comité technique de l’IFAC sur Manufacturing Modelling,
Management and Control, etc. Pour plus d'information, voir www.emse.fr/~dolgui
Le
hasard en informatique
Nicolas Schabanel - Directeur de recherches CNRS, LIAFA, Université Paris Diderot, France
Résumé.
Depuis les années 1970, l'informatique a développé une approche
originale du hasard qui n'est plus subi (erreur, chaos, etc.) mais au
contraire utilisé pour améliorer les performances. Nous verrons dans
différents contextes informatiques, comment l'injection de hasard dans
un algorithme peut en améliorer considérablement les performances. Nous
démontrerons également que les algorithmes randomisés (i.e. qui
utilisent le hasard) sont non seulement strictement plus puissants que
leur alternatives déterministes, mais également, le plus souvent, bien
plus simples à mettre en œuvre et à analyser ! Autant dire que l'on
gagne sur tous les tableaux à les utiliser. Nous verrons également que
le hasard peut permettre de réaliser des choses apparemment impossibles
comme: corriger un programme bogué sans y toucher, convaincre que l'on
connaît un secret sans rien en révéler, compter avec moins de mémoire
qu'il n'en faudrait...
Nicolas Schabanel est directeur de
recherches au CNRS au LIAFA, Université Paris Diderot. Il est également
membre résident de l'institut rhône-alpin des systèmes complexes (IXXI,
école normale supérieure de Lyon) qu'il a contribué à créer. Après des
études d'informatique à l'école normale supérieure de Lyon en
informatique de 1993 à 1996 et une agrégation de mathématiques en 1997,
il démarre une thèse sous la direction de Claire Kenyon (maintenant
Claire Mathieu) sur les algorithmes d'approximation pour les
télécommunications sans fil, bilocalisée au LIP (école normale
supérieure de Lyon) et au LRI (Université d'Orsay). Après un post-doc
d'un an à DIMACS (Rutgers University, USA) il intègre le CNRS en tant
que chargé de recherches au LIP en 2000 où il participera à la création
avec le professeur Michel Morvan à la création de l'IXXI. Il est
ensuite affecté de 2006 à 2008 à l'université de Santiago du Chili.
Depuis 2008, il est affecté au LIAFA où il dirige maintenant l'équipe
"algorithmes distribués et graphes". Ses domaines de recherches
incluent l'algorithmique en général, les automates cellulaires
probabilistes, l'auto-assemblage algorithmique, et la modélisation des
phénomènes dits complexes (l'études du phénomène des petits mondes en
sociologie par exemple). Il a encadré trois thèses de doctorats sur ces
thèmes. Il dirige également une auto-entreprise de vulgarisation
scientifique, Algoseum, réalisant des ateliers et exhibitions ludiques
à destination des musées des sciences dans le monde, ainsi qu'une
association d'initiation à la programmation sur tablettes pour les
enfants à partir de 7 ans.
Retour au programme des plénières
Data Oriented Approach for Pattern Mining - toward a paradigm shift -
Professeur Takeaki Uno - National Institute of Informatics (NII), Japan
Résumé. Pattern mining is one of the fundamentals in data mining. The aim of the pattern mining is, usually, to find all patterns of a specified class, in the given database. The problem has a long history of up to 20 years, and has been intensively studied. There have been proposed many problems and algorithms. However, pattern mining algorithms are no so much used in real-world applications. One of the reasons is that the number of solutions is usually huge, and many similar patterns appearing in similar places are found. Constraints given by background knowledge are often used to reduce the number, but this does not have any mechanism of automatically avoiding huge number of solutions.
Originally, patterns represent local structures having common pattern. So, patterns corresponding almost the same local structures should be unified. Constraint approach does not have this sense, thus some local structures may lose their representative patterns, and some local structures may have many. This motivate us to find local structures instead of finding patterns directly, and compute all representative patterns of obtained local structures.
For having a mechanism to avoid finding
similar local structures, we introduce a new concept of data
properlization. Data often misses some edges and accidentally have
edges. Data properlization covers the lost edges and deletes
unnecessary edges from the data so that the data will have much more
clarity, that is, objective structures will have no ambiguity. For
example, data properlization changes pseudo clique corresponding to a
cluster to a clique. By applying the data properlization, the number of
cliques will be drastically reduced, and thus we can efficiently find
all local structures without implicit
duplications.
This approach would be the first result
in data mining that has a mechanism of reducing the number of
solutions, with simple and efficient computation.
Takeaki Uno received the PhD degree
(Doctor of Science) from Department of Systems Science, Tokyo Institute
of Technology Japan, 1998. He was an assistant professor in Department
of Industrial and Management Science in Tokyo Institute of Technology
from 1998 to 2001, and have been an associate professor of National
Institute of Informatics Japan, from 2001. His research topic is
discrete algorithms, especially enumeration algorithms, algorithms on
graph classes, and data mining algorithms. On the theoretical part, he
studies low degree polynomial time algorithms, and hardness proofs. In
the application area, he works on the paradigm of constructing
practically efficient algorithms for large scale data that are data
oriented and theoretically supported. In an international frequent
pattern mining competition in 2004 he won the best implementation
award. He got Young Scientists' Prize of The Commendation for Science
and Technology by the Minister of Education, Culture, Sports, Science
and Technology in Japan, 2010.
Retour au programme des plénières
Session industrielle : Big data analytics
Hichem FOUDIL-BEY, IBM North & West AfricaIBM
Résumé.
Chaque jour, nous générons 2,5 trillions d'octets de données. A tel
point que 90 % des données dans le monde ont été créées au cours des
deux dernières années seulement. Ces données proviennent de partout :
de capteurs utilisés pour collecter les informations climatiques, de
messages sur les sites de médias sociaux, d'images numériques et de
vidéos publiées en ligne, d'enregistrements transactionnels d'achats en
ligne et de signaux GPS de téléphones mobiles, pour ne citer que
quelques sources.
Le Big Data va bien au-delà de la seule notion de volume ; il constitue
une opportunité d'obtenir des connaissances sur des types de données et
de contenus nouveaux, afin de rendre une organisation plus agile et de
trouver enfin une réponse aux questions laissées en suspens.
Biographie.
Hichem FOUDIL-BEY. 13 ans d’expérience comme IT Specialist, dont la
majeure partie a été consacrée aux industries banque et
télécommunication. Son domaine de compétence couvre l’analyse des
besoins, le design, l’implémentation ainsi que la gestion de projets
relatifs aux problématiques d’aide à la décision.
Avec une expertise technique couvrant les domaines de :
Gouvernance et Intégration de données, data Warehouse et Business
Intelligence (Reporting, Intérogation et analyse prédictive de données,
data mining… ), il est aujourd’hui responsable avant-vente chez IBM
chargé des solutions Information Management qui couvrent notamment les
nouvelles technologies relatives au Big Data Analytics qui offrent des
possibilités d’analyse de données jusque-là inégalée.