Plénières de COSI - 2013

 

1- Utilisation des techniques d’optimisation combinatoire et des modèles stochastiques pour le paramétrage des logiciels MRP (Manufacturing Resource Planning)

Professeur Alexandre Dolgui - Ecole des Mines de Saint-Etienne, France

2- Le hasard en informatique

Nicolas Schabanel - Directeur de recherches CNRS, LIAFA, Université Paris Diderot, France


3- Data Oriented Approach for Pattern Mining - toward a paradigm
shift -

Professeur Takeaki Uno - National Institute of Informatics (NII), Japan


Session indutrielle : Big data analytics

Hichem FOUDIL-BEY, IBM North & West AfricaIBM


Utilisation des techniques d’optimisation combinatoire et des modèles stochastiques pour le paramétrage des logiciels MRP (Manufacturing Resource Planning)

Professeur Alexandre Dolgui Ecole des Mines de Saint-Etienne, France

Résumé.  Dans les entreprises, les logiciels utilisant le principe MRP sont souvent employés pour gérer les stocks et leurs approvisionnements. Mais les techniques de MRP ont été conçues pour un fonctionnement déterministe en juste à temps. Pour le cas où il aurait des aléas, il faut savoir paramétrer ces logiciels pour minimiser le coût total de fonctionnement qui est souvent composé du coût de stockage et du coût de rupture de stocks. Nous montrons comment certaines techniques d’optimisation combinatoire appliquées aux modèles stochastiques peuvent nous aider à trouver des valeurs optimales des paramètres de MRP. Nous illustrons notre exposé avec des résultats que nous avons obtenus pour la recherche des valeurs optimale des temps de cycle planifiés pour les systèmes d’assemblage avec délais aléatoires de livraison de composants. Notre approche d’optimisation se base sur la recherche des propriétés de dominance pour réduire l’espace de recherche  de solutions ainsi que des bornes inférieures et supérieures de la fonction coût. La résolution est alors basée sur une Procédure par Séparation et Evaluation (PSE). Nous montrons également les cas particuliers quand les solutions optimales peuvent être trouvées sous forme analytique sans faire recours à PSE, en utilisant des nouvelles extensions du modèle Newsboy.


Biographie.

Alexandre Dolgui
Professeur de classe exceptionnelle, Directeur délégué Recherche de l'Institut Henri Fayol, Directeur adjoint de l'UMR CNRS 6158 LIMOS, Ecole des Mines de Saint-Etienne.
Diplômes: Ingénieur de l'Université d'Etat en Informatique et Radio-électronique de Biélorussie, Docteur de l'Académie Nationale des Sciences de Biélorussie, HDR de l'Université de Technologie de Compiègne.
30 ans de carrière d’enseignant chercheur ; Première publication en 1982 ; Première communication et prix en 1983 (meilleure présentation à la conférence de jeunes chercheurs des pays Baltes, Biélorussie et Moldavie à Riga en Lettonie) ; Premier article en revue en 1986 ; Au total plus de 650 publications et communications ; Principales revues où les publications sont faites : European Journal of Operational Research, IIE transactions, International Journal of Production Research, International Journal of Production Economics, Computers and Operations Research, Computers and Industrial Engineering, Journal of Scheduling, Discrete Applied Mathematics, Annals of Operations Research, Journal of Operational Research Society, Optimization Letters, Computational Optimization and Applications, etc. Auteur de 5 livres ;  Editeur de 12 livres et de 18 numéros spéciaux de revues internationales ; Membre de Comité de Programme de plus de 150 conférences internationales ; Prix internationaux et nationaux ; Prix meilleure thèse ; Plus de 140 jurys de thèses de doctorat et d’HDR en France, en Espagne, en Belgique, en Chine, en Italie, au Canada, en Roumanie, en Tunisie et en Pologne. Editeur en chef de International Journal of Production Research, Editeur Associé de Omega et Computers and Industrial Engineering, membre de Editorial Board de 13 autres revues internationales ; Board Membre de International Foundation for Production Research, Président du comité technique de l’IFAC sur Manufacturing Modelling, Management and Control, etc. Pour plus d'information, voir www.emse.fr/~dolgui

Retour au programme des plénières

Le hasard en informatique

Nicolas Schabanel - Directeur de recherches CNRS, LIAFA, Université Paris Diderot, France


Résumé.

Depuis les années 1970, l'informatique a développé une approche originale du hasard qui n'est plus subi (erreur, chaos, etc.) mais au contraire utilisé pour améliorer les performances. Nous verrons dans différents contextes informatiques, comment l'injection de hasard dans un algorithme peut en améliorer considérablement les performances. Nous démontrerons également que les algorithmes randomisés (i.e. qui utilisent le hasard) sont non seulement strictement plus puissants que leur alternatives déterministes, mais également, le plus souvent, bien plus simples à mettre en œuvre et à analyser ! Autant dire que l'on gagne sur tous les tableaux à les utiliser. Nous verrons également que le hasard peut permettre de réaliser des choses apparemment impossibles comme: corriger un programme bogué sans y toucher, convaincre que l'on connaît un secret sans rien en révéler, compter avec moins de mémoire qu'il n'en faudrait...


Biographie.

Nicolas Schabanel est directeur de recherches au CNRS au LIAFA, Université Paris Diderot. Il est également membre résident de l'institut rhône-alpin des systèmes complexes (IXXI, école normale supérieure de Lyon) qu'il a contribué à créer. Après des études d'informatique à l'école normale supérieure de Lyon en informatique de 1993 à 1996 et une agrégation de mathématiques en 1997, il démarre une thèse sous la direction de Claire Kenyon (maintenant Claire Mathieu) sur les algorithmes d'approximation pour les télécommunications sans fil, bilocalisée au LIP (école normale supérieure de Lyon) et au LRI (Université d'Orsay). Après un post-doc d'un an à DIMACS (Rutgers University, USA) il intègre le CNRS en tant que chargé de recherches au LIP en 2000 où il participera à la création avec le professeur Michel Morvan à la création de l'IXXI. Il est ensuite affecté de 2006 à 2008 à l'université de Santiago du Chili. Depuis 2008, il est affecté au LIAFA où il dirige maintenant l'équipe "algorithmes distribués et graphes". Ses domaines de recherches incluent l'algorithmique en général, les automates cellulaires probabilistes, l'auto-assemblage algorithmique, et la modélisation des phénomènes dits complexes (l'études du phénomène des petits mondes en sociologie par exemple). Il a encadré trois thèses de doctorats sur ces thèmes. Il dirige également une auto-entreprise de vulgarisation scientifique, Algoseum, réalisant des ateliers et exhibitions ludiques à destination des musées des sciences dans le monde, ainsi qu'une association d'initiation à la programmation sur tablettes pour les enfants à partir de 7 ans.


Retour au programme des plénières



Data Oriented Approach for Pattern Mining - toward a paradigm shift -

Professeur Takeaki Uno - National Institute of Informatics (NII), Japan

Résumé.  Pattern mining is one of the fundamentals in data mining. The aim of the pattern mining is, usually, to find all patterns of a specified class, in the given database. The problem has a long history of up to 20 years, and has been intensively studied. There have been proposed many problems and algorithms. However, pattern mining algorithms are no so much used in real-world applications. One of the reasons is that the number of solutions is usually huge, and many similar patterns appearing in similar places are found. Constraints given by background knowledge are often used to reduce the number, but this does not have any mechanism of automatically avoiding huge number of solutions.

Originally, patterns represent local structures having common pattern. So, patterns corresponding almost the same local structures should be unified. Constraint approach does not have this sense, thus some local structures may lose their representative patterns, and some local structures may have many. This motivate us to find local structures instead of finding patterns directly, and compute all representative patterns of obtained local structures.

For having a mechanism to avoid finding similar local structures, we introduce a new concept of data properlization. Data often misses some edges and accidentally have edges. Data properlization covers the lost edges and deletes unnecessary edges from the data so that the data will have much more clarity, that is, objective structures will have no ambiguity. For example, data properlization changes pseudo clique corresponding to a cluster to a clique. By applying the data properlization, the number of cliques will be drastically reduced, and thus we can efficiently find all local structures without implicit
duplications.

This approach would be the first result in data mining that has a mechanism of reducing the number of solutions, with simple and efficient computation.


Biographie.

Takeaki Uno received the PhD degree (Doctor of Science) from Department of Systems Science, Tokyo Institute of Technology Japan, 1998. He was an assistant professor in Department of Industrial and Management Science in Tokyo Institute of Technology from 1998 to 2001, and have been an associate professor of National Institute of Informatics Japan, from 2001. His research topic is discrete algorithms, especially enumeration algorithms, algorithms on graph classes, and data mining algorithms. On the theoretical part, he studies low degree polynomial time algorithms, and hardness proofs. In the application area, he works on the paradigm of constructing practically efficient algorithms for large scale data that are data oriented and theoretically supported. In an international frequent pattern mining competition in 2004 he won the best implementation award. He got Young Scientists' Prize of The Commendation for Science and Technology by the Minister of Education, Culture, Sports, Science and Technology in Japan, 2010.


Retour au programme des plénières

Session industrielle : Big data analytics

Hichem FOUDIL-BEY, IBM North & West AfricaIBM


Résumé.

Chaque jour, nous générons 2,5 trillions d'octets de données. A tel point que 90 % des données dans le monde ont été créées au cours des deux dernières années seulement. Ces données proviennent de partout : de capteurs utilisés pour collecter les informations climatiques, de messages sur les sites de médias sociaux, d'images numériques et de vidéos publiées en ligne, d'enregistrements transactionnels d'achats en ligne et de signaux GPS de téléphones mobiles, pour ne citer que quelques sources.
Le Big Data va bien au-delà de la seule notion de volume ; il constitue une opportunité d'obtenir des connaissances sur des types de données et de contenus nouveaux, afin de rendre une organisation plus agile et de trouver enfin une réponse aux questions laissées en suspens.



Biographie.
Hichem FOUDIL-BEY. 13 ans d’expérience comme IT Specialist, dont la majeure partie a été consacrée aux industries banque et télécommunication. Son domaine de compétence couvre l’analyse des besoins, le design, l’implémentation ainsi que la gestion de projets relatifs aux problématiques d’aide à la décision.
Avec une expertise technique couvrant les domaines de : Gouvernance et Intégration de données, data Warehouse et Business Intelligence (Reporting, Intérogation et analyse prédictive de données, data mining… ), il est aujourd’hui responsable avant-vente chez IBM chargé des solutions Information Management qui couvrent notamment les nouvelles technologies relatives au Big Data Analytics qui offrent des possibilités d’analyse de données jusque-là inégalée.



Retour au programme des plénières