Les livres sur la Business Intelligence

8 livres et 8 critiques, dernière mise à jour le 11 juillet 2015 , note moyenne : 4.4

  1. Data Visualisation - De l'extraction des données à leur représentation graphique
  2. Data mining et statistique décisionnelle
  3. Entrepôts de données - Guide pratique de modélisation dimensionnelle
  4. Collective Intelligence in Action
  5. Le Datawarehouse - Guide de conduite de projet
  6. Business Intelligence avec Oracle 10g : ETL, Data warehouse, Data mining, rapports...
  7. Data Warehousing Fundamentals - A comprehensive Guide for IT Professionals
  8. Big Data - Concepts et mise en oeuvre de Hadoop
couverture du livre Data Visualisation

Note 5 drapeau
Détails du livre
Sommaire
Critiques (1)
0 commentaire
 
 

Data Visualisation

De l'extraction des données à leur représentation graphique

de
Traducteurs : Xavier Guesnu
Public visé : Débutant

Résumé de l'éditeur

L'essor des nouvelles technologies et du Web a extraordinairement accéléré et simplifié la collecte, le stockage et l'accès aux données. Analysées et présentées de façon explicite et sensée, elles contribuent à faciliter la prise de décision, partager les connaissances et les idées, porter à un regard plus objectif sur le monde.
La data visualisation est ainsi devenue une discipline à part entière, outil privilégié des datajournalistes, scientifiques, statisticiens, ingénieurs, graphistes, designers, chercheurs en sciences de l'information, spécialistes du marketing. Pionnier de cette approche innovante, Nathan Yau présente dans cet ouvrage les meilleurs moyens de collecter, d'explorer, d'analyser et de représenter de façon créative de larges ensembles de données.

Édition : Eyrolles - 355 pages , 1re édition, 24 octobre 2013

ISBN10 : 2212135998 - ISBN13 : 9782212135992

Commandez sur www.amazon.fr :

33.25 € TTC (prix éditeur 33.25 € TTC)
  • Introduction
  • Raconter une histoire avec les données
  • Manipulation de données
  • Choix des outils pour la visualisation des données
  • Visualisation des modèles temporels
  • Visualisation des proportions
  • Visualisation des relations
  • Identification des différences
  • Visualisation des relations spatiales
  • Concevoir avec un objectif
Critique du livre par la rédaction stoyak le 19 avril 2014
Besoin d'un livre d'introduction à la visualisation des données ? En français ? Ce livre est pour vous !
Il présente les différents types de graphes et représentations qu'il est possible de réaliser en fonction de leurs applications (modèles temporels, proportions, relations...).
L'auteur propose des données à interpréter et des sites pour en collecter et commencer à travailler. La manipulation et la structuration des données est proposée avec Python ou encore R, avec des exemples de codes simples.

Un bon livre pour appréhender la visualisation des données !




 Poster une réponse

Avatar de stoyak stoyak - Rédactrice https://www.developpez.com
le 19/04/2014 à 9:49
Bonjour,

Une nouvelle critique a été ajoutée pour le livre Data Visualisation. N'hésitez pas à le lire et à ajouter vos commentaires !

couverture du livre Data mining et statistique décisionnelle

Note 4.5 drapeau
Détails du livre
Sommaire
Critiques (1)
6 commentaires
 
 

Data mining et statistique décisionnelle

de

Résumé de l'éditeur

Le data mining et la statistique sont de plus en plus répandus dans les entreprises et les organisations soucieuses d'extraire l'information pertinente de leurs bases de données, qu'elles peuvent utiliser pour expliquer et prévoir les phénomènes qui les concernent (risques, consommation, fidélisation...).

Cette troisième édition, actualisée et augmentée de 170 pages, fait le point sur le data mining, ses méthodes, ses outils et ses applications, qui vont du scoring jusqu'au web mining et au text mining. Nombre de ses outils appartiennent à l'analyse des données et la statistique classique (classification automatique, analyse discriminante, régression logistique, modèles linéaires généralisés, régression régularisée...) mais certains sont plus spécifiques au data mining, comme les arbres de décision, les réseaux de neurones, les SVM, l'agrégation de modèles et la détection des règles d'associations. Ces outils sont disponibles dans des logiciels de plus en plus puissants et conviviaux. Un chapitre de l'ouvrage aide d'ailleurs le lecteur à se diriger dans cette offre logicielle et détaille les fonctionnalités des trois principaux : SAS, IBM et SPSS et aussi R, qui bénéficie d'un développement conséquent dans cette troisième édition. Ces logiciels sont aussi utilisés pour illustrer par des exemples de nombreuses explications théoriques : une nouvelle partie de 50 pages est consacrée à une étude de cas complète de credit scoring, qui va de l'exploration des données jusqu'à l'élaboration de la grille de score.

Les aspects méthodologiques vont de la conduite des projets jusqu'aux facteurs de réussite et aux pièges à éviter, en passant par l'évaluation et la comparaison des modèles, leur intégration dans les processus opérationnels, sans oublier les contraintes juridiques dès que l'on traite des données à caractère personnel.

Édition : Technip - 705 pages , 3eédition, 5 janvier 2010

ISBN10 : 271080946X - ISBN13 : 9782710809463

Commandez sur www.amazon.fr :

58.09 € TTC (prix éditeur 62.00 € TTC) livraison gratuite !
  • 1. Panorama du data mining
  • 2. Le déroulement d'une étude de data mining
  • 3. L'exploration et la préparation des données
  • 4. L'utilisation des données commerciales
  • 5. Les logiciels de statistique et data mining
  • 6. Aperçu sur les techniques de data mining
  • 7. L'analyse factorielle
  • 8. Les réseaux de neurones
  • 9. Les techniques de classification automatique
  • 10. La recherche d'associations
  • 11. Les techniques de classement et de prédiction
  • 12. Une application du data mining : le scoring
  • 13. Les facteurs de succès d'un projet de data mining
  • 14. Le text mining
  • 15. Le web mining
  • Annexes
  • Bibliographie
  • Index
Critique du livre par la rédaction Stéphane Colas le 2 février 2012
Ce livre de 699 pages hors index regroupe les méthodes d'analyses et leur application pour les chargés d'études et statisticiens.
L'auteur a enrichi les versions précédentes avec de nouvelles approches méthodologiques et une nouvelle présentation des outils SAS, SPSS et R. Ce dernier monte en puissance dans cette version.
Écrit avec un style littéraire convaincant, le livre de Stéphane Tufféry devient un peu plus à chacune de ses nouvelles versions un must have. Il semble que l'auteur ait carte blanche pour ajouter autant de pages que nécessaire à chaque nouvelle parution. En effet, quasiment 200 pages viennent aider l'auteur dans son exposé. La structuration du livre reste homogène avec 15 chapitres méthodologiques puis deux annexes portant sur les rappels statistiques et le rappel des contraintes règlementaires françaises. Seul l'un d'entre eux est désormais beaucoup trop long : celui qui concerne les techniques de classement et de prédiction. Il va être nécessaire d'isoler certaines parties car les 250 pages de chapitre cassent l'homogénéité de l'ensemble.
Chaque chapitre comporte une introduction et une conclusion clarifiant l'exposé mais l'auteur a surtout ajouté des explications sur les avantages et les inconvénients de la plupart des méthodes présentées ce qui donne une perspective très intéressante au livre. En effet, au-delà de la description des algorithmes, l'auteur livre un vécu et une expérience (certaine) qui permettront au lecteur de conforter son choix dans une méthode en comprenant les pièges à éviter.
À l'instar des versions précédentes, le livre reste à destination des statisticiens. Des explications théoriques précisent l'apport des méthodes, sans tomber dans un cours de mathématiques, et comment utiliser les sorties. À cela s'ajoutent si nécessaire des renvois vers des publications permettant au lecteur d'approfondir ses connaissances ou préciser un point. De ce fait, l'ouvrage est précis et suffisamment argumenté.
En commençant par présenter le déroulement d'une étude de Data Mining, l'auteur fournit des indications précieuses sur le cycle de vie d'un projet d'étude. Le lecteur trouvera ensuite des informations sur le type de données externes et comment se les procurer. Un chapitre technique présente alors les logiciels SAS, SPSS et enfin une place particulière est donnée à R. L'auteur indique enfin comment SAS et SPSS (malheureusement pas R) peuvent répondre ou non à une liste de fonctionnalités allant de l'import de fichier plat à l'export des modèles en PMML en passant par le modèle de Cox à risques proportionnels. Seul un paragraphe sur les performances informatiques dénote ici car ce n'est pas le sujet du livre.
Sept chapitres vont ensuite détailler les principales méthodes d'analyses : de l'analyse factorielle au web mining en passant par les réseaux de neurones, le text mining, les classements (dont SVM), etc. Les méthodes modernes se voient donc bien associées aux méthodes classiques comme le promettait l'auteur. À titre d'exemple, le lecteur trouvera enfin une explication du cubic clustering criterion puis un chapitre exhaustif sur la théorie de Vapnik.
Deux autres chapitres permettent à l'auteur de proposer une étude sur le scoring et les facteurs de succès d'un projet.
Nous sommes donc avec un livre de techniques statistiques permettant de comprendre la théorie sous-jacente de chaque étape d'un projet et de l'appliquer rapidement.
Toutefois, la robustesse de l'exposé statistique requiert désormais un exposé technique plus rigoureux. Même si le lecteur trouvera au hasard de quelques pages du code ou des captures d'écran concernant des logiciels qui ne sont présentés nulle part, le plus gênant concerne la diversité des codes employés. Pour chaque exemple l'auteur aurait dû présenter systématiquement les procédures ou fonctions de ses trois logiciels phares puis une illustration avec l'un d'entre eux. Au lieu de cela, l'auteur n'explique pas comment il a choisi la procédure, ce qui peut dérouter le lecteur. Il arrive également que quelques méthodes ne soient pas accompagnées de syntaxes, fort heureusement ces cas sont rares mais on ne saura pas d'emblée appliquer les conseils de l'auteur.
Du côté des statistiques, l'ouvrage souffre de peu de dysfonctionnements.
Le lecteur notera rapidement que les méthodes classiques sont plus illustrées et fouillées que les méthodes modernes. Ces dernières seraient-elles passées de mode ou que leur efficacité a pu être enfin éprouvée ? Il est aussi regrettable que quelques-unes d'entre elles n'aient pas non plus une présentation de leurs limites lorsqu'elles ne peuvent être comparées à d'autres méthodes.
L'ouvrage reste centré sur l'analyse des données et les régressions mais n'aborde pas la gestion des séries temporelles ou l'analyse des données de panel. L'auteur ne traite pas non des problèmes méthodologiques des grands modèles (i.e. avec un nombre important de variables) ; la plupart des exemples exploitent quelques variables mais le lecteur ne trouvera pas de mention sur le comportement à adopter face aux bases importantes en information.
Pour finir, l'auteur repasse en revue une grande partie des méthodes présentées dans l'ouvrage et indique le meilleur cadre d'utilisation de chacune d'entre elles. Malheureusement, ce paragraphe est trop synhtétique. Il faut réellement espérer que l'auteur le développe car il s'en dégage un potentiel indéniable. Il serait également intéressant que l'auteur complète son ouvrage avec une étude comparée des méthodes classiques face aux méthodes modernes.
Au final, l'auteur a réussi l'écriture d'un ouvrage sur les statistiques et le data mining.
Les applications concrètes aideront le lecteur à travailler correctement sur chaque maillon de son projet même s'il faudra passer un peu de temps à retrouver les syntaxes si ce n'est pas du SAS.
Le livre est dense, argumenté et le vécu de l'auteur le distingue des livres universitaires sur les mêmes sujets grâce à son retour d'expérience ; le lecteur pourra s'en servir avec assurance tout au long de son travail.
La version 4 apportera son lot de nouveautés et d'enrichissement ; peut-être atteindrons-nous les 1000 pages et qu'une version électronique sera enfin disponible. Mais en attendant, le lecteur peut déjà découvrir certaines de ces nouveautés dans la version éditée en anglais chez Wiley.




 Poster une réponse

Avatar de fafabzh6 fafabzh6 - Responsable SAS https://www.developpez.com
le 02/02/2012 à 14:01
Stéphane Colas vous propose la critique du livre "Data mining et statistique décisionnelle - 3ème Edition" de Stéphane Tufféry.



Résumé de l'éditeur :
Le data mining et la statistique sont de plus en plus répandus dans les entreprises et les organisations soucieuses d'extraire l'information pertinente de leurs bases de données, qu'elles peuvent utiliser pour expliquer et prévoir les phénomènes qui les concernent (risques, consommation, fidélisation...).

Cette troisième édition, actualisée et augmentée de 170 pages, fait le point sur le data mining, ses méthodes, ses outils et ses applications, qui vont du scoring jusqu'au web mining et au text mining. Nombre de ses outils appartiennent à l'analyse des données et la statistique classique (classification automatique, analyse discriminante, régression logistique, modèles linéaires généralisés, régression régularisée...) mais certains sont plus spécifiques au data mining, comme les arbres de décision, les réseaux de neurones, les SVM, l'agrégation de modèles et la détection des règles d'associations. Ces outils sont disponibles dans des logiciels de plus en plus puissants et conviviaux. Un chapitre de l'ouvrage aide d'ailleurs le lecteur à se diriger dans cette offre logicielle et détaille les fonctionnalités des trois principaux : SAS, IBM et SPSS et aussi R, qui bénéficie d'un développement conséquent dans cette troisième édition. Ces logiciels sont aussi utilisés pour illustrer par des exemples de nombreuses explications théoriques : une nouvelle partie de 50 pages est consacrée à une étude de cas complète de credit scoring, qui va de l'exploration des données jusqu'à l'élaboration de la grille de score.

Les aspects méthodologiques vont de la conduite des projets jusqu'aux facteurs de réussite et aux pièges à éviter, en passant par l'évaluation et la comparaison des modèles, leur intégration dans les processus opérationnels, sans oublier les contraintes juridiques dès que l'on traite des données à caractère personnel.

Avez vous lu ce livre, pensez vous le lire?
Avatar de janlouk janlouk - Membre éprouvé https://www.developpez.com
le 03/06/2013 à 15:52
Personne ne l'a lu ? J'aurais bien aimé un avis sur ce livre afin de savoir comment se lancer en "général" dans la Business Intelligence...
Avatar de datametric datametric - Rédacteur https://www.developpez.com
le 03/06/2013 à 21:01
Si moi pourquoi ?

Beaucoup de personnes l'ont lu.
couverture du livre Entrepôts de données

Note 4.5 drapeau
Détails du livre
Sommaire
Critiques (1)
1 commentaire
 
 

Entrepôts de données

Guide pratique de modélisation dimensionnelle

de
Traducteurs : Claude Raimond
Public visé : Intermédiaire

Résumé de l'éditeur

Guide pratique de l'analyse dimensionnelle, développé par l'auteur même de cette façon d'analyser... Preuve en est qu'une vision d'avenir basée sur une solide théorie finit toujours par s'imposer.

Édition : Vuibert - 437 pages , 2eédition, 1er novembre 2002

ISBN10 : 2711748111 - ISBN13 : 9782711748112

Commandez sur www.amazon.fr :

56.05 € TTC (prix éditeur 59.00 € TTC) livraison gratuite !
  • Initiation à la modélisation dimensionnelle
  • Grande distribution
  • Stock
  • Achats
  • Gestion des commandes client
  • Gestion des relations client
  • Comptabilité
  • Gestion des ressources humaines
  • Services financiers
  • Télécommunications, distribution d'eau et d'électricité
  • Transports
  • Enseignement
  • Santé
  • Commerce électronique
  • Assurances
  • Construction de l'entrepôt de données
  • Impératifs actuels et perspectives d'avenir
Critique du livre par la rédaction Fabien Celaia le 1er octobre 2009
On ne présente plus Ralph Kimball qui est le "pape", quasi le "géniteur" de la modélisation dimensionnelle.
La traduction est heureusement bien faite. L'ouvrage, quoique informatique, est dense, et sa lecture assez compréhensible.
Cette théorie date de plus de 20 ans, mais les bases de données actuelles, leurs volumétries et l'intégration des divers modules liés à la BI la remettent au "goût du jour".
A ne pas manquer : les quelques points intérssants sous forme de listes (les 10 règles à suivre, les 10 erreurs à éviter, etc) et le dernier chapitre.
Le découpage par domaine est assez particuliers. Les recettes données n'apportent pas forcément tout ce que l'on en attendrait. Elles illustrent cependant certains concepts. Il ne faut donc pas vous focaliser sur l'unique chapitre touchant votre domaine d'activité, mais prendre dans chaque chapitre la partie intéressante qui vous permettra de créer un entrepôt de données performant.
Guide idéal et indispensable pour tout responsable d'entrepôt de données.
Pour les praticiens, vous y trouverez des concepts intéressants, mais très peu d'exercices pratiques et d'explication techniques liées aux divers SGBD et leurs modules de BI... c'est un manque... permettant à l'auteur de rester au niveau conceptuel... sans jamais avoir à se prononcer sur les solutions techniques.




 Poster une réponse

Avatar de TomDuBouchon TomDuBouchon - Rédacteur https://www.developpez.com
le 17/10/2011 à 15:18
La rédaction de DVP a lu pour vous l'ouvrage suivant :

Entrepôts de données. Guide pratique de modélisation dimensionnelle, de Ralph Kimball et Margy Ross.



Résumé de l'éditeur
Guide pratique de l'analyse dimensionnelle, développé par l'auteur même de cette façon d'analyser... Preuve en est qu'une vision d'avenir basée sur une solide théorie finit toujours par s'imposer.

L'avez-vous lu? Comptez-vous le lire ?

Quel est votre avis?
Avatar de herve4 herve4 - Membre habitué https://www.developpez.com
le 13/11/2013 à 11:01
un des ouvrages de référence dans le domaine de l’ingénierie informatique décisionnelle.

couverture du livre Collective Intelligence in Action

Note 4 drapeau
Détails du livre
Sommaire
Critiques (1)
1 commentaire
 
 

Collective Intelligence in Action

de
Public visé : Expert

Résumé de l'éditeur

Product Description

There's a great deal of wisdom in a crowd, but how do you listen to a thousand people talking at once? Identifying the wants, needs, and knowledge of internet users can be like listening to a mob.

In the Web 2.0 era, leveraging the collective power of user contributions, interactions, and feedback is the key to market dominance. A new category of powerful programming techniques lets you discover the patterns, inter-relationships, and individual profiles-the collective intelligence--locked in the data people leave behind as they surf websites, post blogs, and interact with other users.

Collective Intelligence in Action is a hands-on guidebook for implementing collective intelligence concepts using Java. It is the first Java-based book to emphasize the underlying algorithms and technical implementation of vital data gathering and mining techniques like analyzing trends, discovering relationships, and making predictions. It provides a pragmatic approach to personalization by combining content-based analysis with collaborative approaches.

This book is for Java developers implementing Collective Intelligence in real, high-use applications. Following a running example in which you harvest and use information from blogs, you learn to develop software that you can embed in your own applications. The code examples are immediately reusable and give the Java developer a working collective intelligence toolkit.

Along the way, you work with, a number of APIs and open-source toolkits including text analysis and search using Lucene, web-crawling using Nutch, and applying machine learning algorithms using WEKA and the Java Data Mining (JDM) standard.

About the Author

Satnam Alag, PhD, is currently the Vice President of Engineering at NextBio, a vertical search engine and a Web 2.0 collaboration application for the life sciences community. He is a seasoned software professional with over fifteen years of experience in machine learning and over a decade of experience in commercial software development and management. Dr. Alag worked as a consultant with Johnson & Johnsons's BabyCenter where he helped develop their personalization engine. Prior to that, he was the Chief Software Architect at Rearden Commerce and began his career at GE R&D. He is a Sun Certified Enterprise Architect (SCEA) for the Java Platform. Dr. Alag earned his PhD in engineering from UC Berkeley and his dissertation was in the area of probabilistic reasoning and machine learning. He has published numerous peer-reviewed articles.

Édition : Manning Publications - 425 pages , 1er septembre 2008

ISBN10 : 1933988312 - ISBN13 : 9781933988313

Commandez sur www.amazon.fr :

33.89 € TTC (prix éditeur 0.00 € TTC) livraison gratuite !
  • Part 1 : GATHERING DATA FOR INTELLIGENCE
    • Understanding collective intelligence
    • Learning from user interactions
    • Extracting intelligence from tags
    • Extracting intelligence from content
    • Searching the blogosphere
    • Intelligent web crawling
  • Part 2 : DERIVING INTELLIGENCE
    • Data mining: process, toolkits, and standards
    • Building a text analysis toolkit
    • Discovering patterns with clustering
    • Making predictions
  • Part 3 : APPLYING INTELLIGENCE IN YOUR APPLICATION
    • Intelligent search
    • Building a recommendation engine
Critique du livre par la rédaction Faisel le 19 mars 2009
A mon avis, ce livre est destiné à des gens ayant de bonnes connaissances en Business Intelligence ainsi qu'en Java pour bien comprendre les exemples fournis, mais qui reste un livre pratique pour l'application de l'intelligence collective à des applications web.
Etant divisé en trois grandes parties, le livre nous introduit, à travers le 1er, 2ème et 3ème chapitres, au domaine de l'intelligence collective en nous donnant un aperçu de l'architecture nécessaire pour intégrer l'intelligence collective dans une application.
La 2ème partie du livre traite l'intelligence provenant de la collecte de données. A travers le 7ème chapitre, le lecteur est introduit au processus du data mining ainsi que ses différents types d'algorithmes. L'outil utilisé étant WEKA, un outil open source pour le data mining dont l'utilisation sera plus explicite dans le chapitre 9 à travers des exemples de clustering.
La dernière partie traite l'application de l'intelligence dans une application.
Les points forts du livre résident dans la méthodologie adoptée par l'auteur pour expliquer comment appliquer de l'intelligence collective dans une application web. Ainsi, le livre nous mène, à travers de nombreux exemples, à comprendre comment appliquer de l'intelligence collective, en dénombrant ses bénéfices, dans une application web. Chaque concept est ainsi illustré par des exemples concrets. L'auteur cite plusieurs sites de référence utilisant le concept de l'intelligence collective, chose qui peut donner plus de visibilité aux lecteurs désirant appliquer ce concept. Une dernière chose que j'ai beaucoup apprecié dans ce livre est qu'il nous transporte du monde du technique abstrait vers un monde du pratique en prédisant le besoin des internautes.
Certains aspects techniques présentés par le livre peuvent causer la perte du fil conducteur pendant sa lecture tels que la présence de plusieurs diagrammes de classes et du code Java. J'aurais préféré que le livre ne traite pas les aspects conceptuels des choses à travers du technique. Ce même problème est rencontré par la présence de certaines formules mathématiques, J'aurais préféré que l'auteur propose des moyens faciles à mettre en œuvre pour aboutir à des résultats exploitables si c'est nécessaire de passer par des chiffres (calcul de la corrélation, similarité,…).
Ce que je n'ai pas aimé dans la méthodologie de l'application du data mining dans ce livre est le fait d'utiliser directement l'API Java de WEKA au lieu d'utiliser l'outil complet WEKA. Ceci, afin d'éviter de réinventer la roue. Aussi, l'auteur devrait normalement expliquer comment sélectionner les attributs de prédiction pour la construction d'un modèle prédictif.

English version :
In my opinion, this book is intended for people with good knowledge in Business Intelligence as well as Java to understand the examples provided, but this is a practical book for the application of collective intelligence in a web applications.
Being divided into three main parts, the book introduces us, through the 1st, 2nd and 3rd chapters, to the field of collective intelligence by giving us an overview of the architecture necessary to integrate collective intelligence in an application.
The 2nd part of the book deals with the intelligence derived from the collection of data. Through the 7th chapter, the reader is introduced to the process of data mining and its different types of algorithms. WEKA tool was used, an open source tool for data mining whose use will be more explicit in Chapter 9 through examples of clustering.
The last part deals with the application of intelligence in an application.
The strengths of the book lie in the methodology adopted by the author to explain how to apply collective intelligence in a web application. Thus, the book explains, through many examples, how to apply collective intelligence, by enumerating its profits in a web application. Each concept is illustrated by concrete examples. The author cites several notable sites using the concept of collective intelligence, something that may give more visibility to readers who wish to implement this concept. One last thing I greatly appreciated in this book is that it brings us from the world of abstract art to a world of practice in predicting the need for Internet users.
Some technical aspects presented by the book may cause the loss of the thread during playback, such as the presence of several class diagrams and Java code. I would have preferred that the book does not address the conceptual aspects of things through the technique. The same problem is encountered by the presence of some mathematical formulas, I would have preferred that the author offers easy ways to implement in order to achieve useful results if it is necessary to go by numbers (calculation of the correlation , similarity, ...).
What I did not like in the methodology of applying data mining in this book is the use of an API directly from Java WEKA instead of using WEKA tool . This is to avoid reinventing the wheel. Also, the author is expected to explain how to select attributes predictive for the construction of a predictive model.




 Poster une réponse

Avatar de Yogui Yogui - Rédacteur https://www.developpez.com
le 21/05/2009 à 11:34
La rédaction de DVP a lu pour vous l'ouvrage suivant:

Collective Intelligence in Action, de Satnam Alag



Résumé de l'éditeur

There's a great deal of wisdom in a crowd, but how do you listen to a thousand people talking at once? Identifying the wants, needs, and knowledge of internet users can be like listening to a mob.
In the Web 2.0 era, leveraging the collective power of user contributions, interactions, and feedback is the key to market dominance. A new category of powerful programming techniques lets you discover the patterns, inter-relationships, and individual profiles-the collective intelligence--locked in the data people leave behind as they surf websites, post blogs, and interact with other users.

Collective Intelligence in Action is a hands-on guidebook for implementing collective intelligence concepts using Java. It is the first Java-based book to emphasize the underlying algorithms and technical implementation of vital data gathering and mining techniques like analyzing trends, discovering relationships, and making predictions. It provides a pragmatic approach to personalization by combining content-based analysis with collaborative approaches.

This book is for Java developers implementing Collective Intelligence in real, high-use applications. Following a running example in which you harvest and use information from blogs, you learn to develop software that you can embed in your own applications. The code examples are immediately reusable and give the Java developer a working collective intelligence toolkit.

Along the way, you work with, a number of APIs and open-source toolkits including text analysis and search using Lucene, web-crawling using Nutch, and applying machine learning algorithms using WEKA and the Java Data Mining (JDM) standard.

L'avez-vous lu? Comptez-vous le lire ?

Quel est votre avis?
Avatar de JauB JauB - Rédacteur https://www.developpez.com
le 21/05/2009 à 12:20
A mon avis, ce livre est destiné à des gens ayant de bonnes connaissances en Business Intelligence ainsi qu'en Java pour bien comprendre les exemples fournis, mais qui reste un livre pratique pour l'application de l'intelligence collective à des applications web.

Etant divisé en trois grandes parties, le livre nous introduit, à travers le 1er, 2ème et 3ème chapitres, au domaine de l'intelligence collective en nous donnant un aperçu de l'architecture nécessaire pour intégrer l'intelligence collective dans une application.

La 2ème partie du livre traite l'intelligence provenant de la collecte de données. A travers le 7ème chapitre, le lecteur est introduit au processus du data mining ainsi que ses différents types d'algorithmes. L'outil utilisé étant WEKA, un outil open source pour le data mining dont l'utilisation sera plus explicite dans le chapitre 9 à travers des exemples de clustering.

La dernière partie traite l'application de l'intelligence dans une application.

Les points forts du livre résident dans la méthodologie adoptée par l'auteur pour expliquer comment appliquer de l'intelligence collective dans une application web. Ainsi, le livre nous mène, à travers de nombreux exemples, à comprendre comment appliquer de l'intelligence collective, en dénombrant ses bénéfices, dans une application web. Chaque concept est ainsi illustré par des exemples concrets. L'auteur cite plusieurs sites de référence utilisant le concept de l'intelligence collective, chose qui peut donner plus de visibilité aux lecteurs désirant appliquer ce concept. Une dernière chose que j'ai beaucoup apprecié dans ce livre est qu'il nous transporte du monde du technique abstrait vers un monde du pratique en prédisant le besoin des internautes.

Certains aspects techniques présentés par le livre peuvent causer la perte du fil conducteur pendant sa lecture tels que la présence de plusieurs diagrammes de classes et du code Java. J'aurais préféré que le livre ne traite pas les aspects conceptuels des choses à travers du technique. Ce même problème est rencontré par la présence de certaines formules mathématiques, J'aurais préféré que l'auteur propose des moyens faciles à mettre en œuvre pour aboutir à des résultats exploitables si c'est nécessaire de passer par des chiffres (calcul de la corrélation, similarité,…).

Ce que je n'ai pas aimé dans la méthodologie de l'application du data mining dans ce livre est le fait d'utiliser directement l'API Java de WEKA au lieu d'utiliser l'outil complet WEKA. Ceci, afin d'éviter de réinventer la roue. Aussi, l'auteur devrait normalement expliquer comment sélectionner les attributs de prédiction pour la construction d'un modèle prédictif.
couverture du livre Le Datawarehouse - Guide de conduite de projet

Note 4.5 drapeau
Détails du livre
Sommaire
Critiques (1)
0 commentaire
 
 

Le Datawarehouse - Guide de conduite de projet

de
Public visé : Intermédiaire

Résumé de l'éditeur

Ralph Kimball est le spécialiste incontesté du Datawarehouse. Depuis 25 ans, il anime des conférences, des formations et des séminaires sur le datawarehouse dans le monde entier et tient une rubrique régulière dans le magazine américain 'Intelligent Enterprise'. Laura Reeves, Margy Ross et Warren Thornthwaite sont tous des consultants renommés dans le domaine du datawarehouse.

Une approche centrée sur le cycle de vie dimensionnel Le marché du datawarehouse a dépassé le stade des balbutiements. Rien qu'aux États-Unis, plus d'un milliers d'entrepôts de données de toutes sortes sont opérationnels et en perpétuelle évolution, pour répondre aux besoins des organisations qu'ils servent. L'approche en cycle de vie dimensionnel remplace la perspective statique qui prévalait il y a quelques années. Cet ouvrage aborde de façon approfondie les techniques de modélisation dimensionnelle et l'architecture en bus décisionnel qui permettent de répondre aux besoins d'évolutivité des datawarehouse d'aujourd'hui.

Conduire un projet de datawarehouse Véritable "Guide de terrain" alimenté par les 25 années d'expertise de Ralph Kimball dans le domaine du datawarehouse, cet ouvrage met à la disposition des décideurs tout un ensemble d'outils et de techniques pour concevoir, développer et déployer un datawarehouse au sein d'une grande entreprise. Avec une approche résolument pratique, Ralph kimball livre dans cet ouvrage toutes les clés d'un déploiement réussi. Chacune des étapes, de l'analyse au déploiement effectif, en passant par la modélisation et la conduite du changement, s'inscrit dans le cadre d'une méthodologie claire et détaillée.

Édition : Eyrolles - 576 pages , 1er février 2005

ISBN10 : 2212116004 - ISBN13 : 9782212116007

Commandez sur www.amazon.fr :

46.55 € TTC (prix éditeur 46.55 € TTC) livraison gratuite !
  • Introduction
  • A qui s'adresse ce livre ?
  • Comment utiliser cet ouvrage ?
  • Objectifs des chapitres
  • Objectifs du data warehouse
  • Objectifs de ce livre
  • Le site Web d'accompagnement (en anglais)
  • Les pièces de l'échiquier
  • Gestion de projet et évaluation des besoins
  • Le cycle de vie dimensionnel
  • Gestion et planification du projet
  • Définition des besoins
  • Modélisation des données
  • Initiation à la modélisation dimensionnelle
  • Cours avancé de modélisation dimensionnelle
  • Architecture
  • Présentation de l'architecture du data warehouse
  • Architecture technique des outils d'arrière-plan (back room)
  • Architecture du portail de restitution (front room)
  • Infrastructure et métadonnées
  • Cours avancé sur l'Internet et la sécurité
  • Mise en œuvre
  • Cours avancé sur les agrégats
  • Mise au point de la conception physique
  • Préparation des données (data staging)
  • Construction des applications utilisateur
  • Planification du déploiement
  • Maintenance et croissance du data warehouse
  • Annexe : Outils de support
  • Index
Critique du livre par la rédaction Bruno LE FRANCOIS le 4 septembre 2008
Ce guide de conduite de projet est une référence pour toute personne concernée, de près ou de loin, par un projet datawarehouse. Cet ouvrage peut être lu, au moins partiellement par tous les acteurs du projet (sponsors de la direction et représentants de la maîtrise d'ouvrage y compris).
La première partie, Les pièces de l'échiquier, définit précisément le rôle de chaque acteur du projet. Faire lire ce chapitre à chaque intervenant permet à chacun de mieux comprendre son rôle dans le projet ainsi que le rôle des autres intervenants. Cette partie s'adresse plus particulièrement aux novices, et leur présente de façon très détaillée chaque fonction, chaque compétence intervenant dans un projet datawarehouse. Le lecteur averti pourra trouver ce déballage de descriptions de postes un peu rébarbatif. Il pourra cependant y trouver de nombreux arguments pour expliquer à sa hiérarchie les besoins en compétences, et donc en ressources humaines, qu'implique la mise en œuvre d'un projet datawarehouse.
Un autre chapitre qui m'a particulièrement intéressé est celui concernant la modélisation dimensionnelle. L'auteur y décrit l'approche en bus décisionnel et délivre de nombreux exemples de modélisation adaptées à différents domaines d'activités. Les personnes en charge de la modélisation du datawarehouse trouveront sans doute ce chapitre un peu léger et devront alors se tourner vers Entrepôts de données - Guide de modélisation dimensionnelle (du même auteur) qui s'intéresse plus précisément à la modélisation.
Les autres chapitres vous intéresseront plus ou moins selon votre expérience de la mise en place de datawarehouse et votre connaissance des solutions BI du marché.
En conclusion, je ne regrette qu'une chose après avoir lu cet ouvrage : ne pas l'avoir lu plus tôt ! Le lire avant de débuter un projet vous permettra certainement d'éviter bien des écueils ! On trouve également un intérêt certain à le lire avec une certaine expérience, ce livre m'a permis de valider certaines façons de faire que j'avais acquises par la pratique et m'a fourni des solutions toutes faites et efficaces à certains problèmes de modélisation.




 Poster une réponse

Avatar de TomDuBouchon TomDuBouchon - Rédacteur https://www.developpez.com
le 17/10/2011 à 15:39
La rédaction de DVP a lu pour vous l'ouvrage suivant :

Le Datawarehouse - Guide de conduite de projet, de de Ralph Kimball, Laura Reeves, Margy Ross et Warren Thornthwaite.



Résumé de l'éditeur
Ralph Kimball est le spécialiste incontesté du Datawarehouse. Depuis 25 ans, il anime des conférences, des formations et des séminaires sur le datawarehouse dans le monde entier et tient une rubrique régulière dans le magazine américain 'Intelligent Enterprise'. Laura Reeves, Margy Ross et Warren Thornthwaite sont tous des consultants renommés dans le domaine du datawarehouse.

Une approche centrée sur le cycle de vie dimensionnel Le marché du datawarehouse a dépassé le stade des balbutiements. Rien qu'aux États-Unis, plus d'un milliers d'entrepôts de données de toutes sortes sont opérationnels et en perpétuelle évolution, pour répondre aux besoins des organisations qu'ils servent. L'approche en cycle de vie dimensionnel remplace la perspective statique qui prévalait il y a quelques années. Cet ouvrage aborde de façon approfondie les techniques de modélisation dimensionnelle et l'architecture en bus décisionnel qui permettent de répondre aux besoins d'évolutivité des datawarehouse d'aujourd'hui.

Conduire un projet de datawarehouse Véritable "Guide de terrain" alimenté par les 25 années d'expertise de Ralph Kimball dans le domaine du datawarehouse, cet ouvrage met à la disposition des décideurs tout un ensemble d'outils et de techniques pour concevoir, développer et déployer un datawarehouse au sein d'une grande entreprise. Avec une approche résolument pratique, Ralph kimball livre dans cet ouvrage toutes les clés d'un déploiement réussi. Chacune des étapes, de l'analyse au déploiement effectif, en passant par la modélisation et la conduite du changement, s'inscrit dans le cadre d'une méthodologie claire et détaillée.

L'avez-vous lu? Comptez-vous le lire ?

Quel est votre avis?
couverture du livre Business Intelligence avec Oracle 10g : ETL, Data warehouse, Data mining, rapports...

Note 4.5 drapeau
Détails du livre
Sommaire
Critiques (1)
0 commentaire
 
 

Business Intelligence avec Oracle 10g : ETL, Data warehouse, Data mining, rapports...

de
Public visé : Débutant

Résumé de l'éditeur

L'informatique décisionnelle ou Business intelligence (BI) couvre un ensemble de technologies et d'outils qui permettent de traiter une somme importante d'informations pour, à la fin du processus, présenter aux décideurs des indicateurs fiables et pertinents. Cet ouvrage analyse comment les différentes pièces du puzzle s'imbriquent (autour de Oracle10g) pour offrir à chaque acteur du monde BI (l'administrateur, le développeur, l'utilisateur néophyte ou expert...) une solution adaptée à ses besoins. La première partie couvre les outils ETL associés à une base de données Oraclel0g. La deuxième partie est consacrée à la gestion des entrepôts (data warehouse, datamart) et à des outils tels que l'application Oracle Warehouse Builder, les divers environnements Discoverer ou à la macro Microsoft Excel OracleBI Spreadsheet Add-In. Dans la dernière partie, des exemples simples et concrets illustrent les différentes méthodes d'exploitation de l'information comme la construction de rapports avec Oracle Reports ou bien l'analyse de données avec l'application graphique Oracle Data Miner ou la macro Oracle Prédictive Analytics. Les développeurs trouveront aussi de nombreux exemples d'utilisation des packages BI en PL/SQL ou bien des fonctions intégrées d'agrégation et d'analyse d'Oracle10g.

Édition : ENI - 449 pages , 1er novembre 2006

ISBN10 : 2746034298 - ISBN13 : 9782746034297

Commandez sur www.amazon.fr :

25.78 € TTC (prix éditeur 25.78 € TTC) livraison gratuite !
  • Chapitre 1 : Introduction
  • Chapitre 2 : Les outils ETL
  • Chapitre 3 : Oracle Warehouse Builder
  • Chapitre 4 : La capture de données modifiées
  • Chapitre 5 : Les entrepôts de données
  • Chapitre 6 : Oracle Business Intelligence
  • Chapitre 7 : OracleBI Spreadsheet Add-In
  • Chapitre 8 : Reports Builder
  • Chapitre 9 : Introduction au data mining
  • Chapitre 10 : L'application Oracle Data Miner
  • Chapitre 11 : Oracle Predictive Analytics
  • Chapitre 12 : Les packages PL / SQL
  • Chapitre 13 : Les fonctions SQL d'agrégation
  • Chapitre 14 : Les fonctions SQL d'analyse
Critique du livre par la rédaction Aitone le 9 avril 2008
Ce livre est parfait pour débuter en Business Intelligence avec Oracle 10g
Commençant par un rappel des notions de Business Intelligence (ETL, entrepôts de données, OLAP, datamining, etc.), ce livre explique le fonctionnement de chaque outil de la gamme Oracle 10g.
Le premier outil testé est Oracle Warehouse Builder, outil graphique de modélisation des traitements ETL. Il est détaillé points par points comment créer un design ou un objet. De nombreuses copies d'écran appuient les exemples et permettent de bien assimiler le processus.
La partie la plus intéressante selon moi, est le chapitre 6 qui explique précisément comment déployer une solution BI à l'aide d'Oracle. Toute l'installation de OracleBI Discoverer Administrator est détaillée avec les principales fonctions sans trop entrer dans les détails. De même, il vous sera possible très facilement de concevoir votre premier état avec Reports Builder tant les explications sont claires et précises.
Une introduction au data-mining permet de mieux appréhender l'utilisation de Oracle Data Miner. Le livre finit avec le recensement des packages PL/SQL et des fonctions SQL (agrégation, analyse).
Pour conclure, je conseille vivement ce livre à tous ceux qui souhaitent découvrir Oracle 10g. Une connaissance de la Business Intelligence et des fonctions Oracle est appréciée mais ce livre est destiné aux débutants et, avec pédagogie, il parvient à enseigner les bases des outils de la suite Oracle 10g.




 Poster une réponse

Avatar de TomDuBouchon TomDuBouchon - Rédacteur https://www.developpez.com
le 17/10/2011 à 16:10
La rédaction de DVP a lu pour vous l'ouvrage suivant :

Business Intelligence avec Oracle 10g : ETL, Data warehouse, Data mining, rapports... de Claire Noirault.



Résumé de l'éditeur
L'informatique décisionnelle ou Business intelligence (BI) couvre un ensemble de technologies et d'outils qui permettent de traiter une somme importante d'informations pour, à la fin du processus, présenter aux décideurs des indicateurs fiables et pertinents. Cet ouvrage analyse comment les différentes pièces du puzzle s'imbriquent (autour de Oracle10g) pour offrir à chaque acteur du monde BI (l'administrateur, le développeur, l'utilisateur néophyte ou expert...) une solution adaptée à ses besoins. La première partie couvre les outils ETL associés à une base de données Oraclel0g. La deuxième partie est consacrée à la gestion des entrepôts (data warehouse, datamart) et à des outils tels que l'application Oracle Warehouse Builder, les divers environnements Discoverer ou à la macro Microsoft Excel OracleBI Spreadsheet Add-In. Dans la dernière partie, des exemples simples et concrets illustrent les différentes méthodes d'exploitation de l'information comme la construction de rapports avec Oracle Reports ou bien l'analyse de données avec l'application graphique Oracle Data Miner ou la macro Oracle Prédictive Analytics. Les développeurs trouveront aussi de nombreux exemples d'utilisation des packages BI en PL/SQL ou bien des fonctions intégrées d'agrégation et d'analyse d'Oracle10g.

L'avez-vous lu? Comptez-vous le lire ?

Quel est votre avis?
couverture du livre Data Warehousing Fundamentals

Note 5 drapeau
Détails du livre
Sommaire
Critiques (1)
0 commentaire
 
 

Data Warehousing Fundamentals

A comprehensive Guide for IT Professionals

de
Public visé : Débutant

Résumé de l'éditeur

Geared to IT professionals eager to get into the all-important field of data warehousing, this book explores all topics needed by those who design and implement data warehouses. Readers will learn about planning requirements, architecture, infrastructure, data preparation, information delivery, implementation, and maintenance. They'll also find a wealth of industry examples garnered from the author's 25 years of experience in designing and implementing databases and data warehouse applications for major corporations. Market: IT Professionals, Consultants.

Édition : Wiley - 512 pages , 2eédition, 1er janvier 2001

ISBN10 : 0471412546 - ISBN13 : 9780471412540

Commandez sur www.amazon.fr :

62.98 € TTC (prix éditeur 96.60 € TTC)
  • The Compelling Need for Data Warehousing
  • Data Warehouse : the Building Blocks
  • Trends In Data Warehousing
  • Planning And Project Management
  • Defining the Business Requirements
  • Requirements as the Driving Force for Data Warehousing
  • The Architectural Components
  • Infrastructure as the Fundation for Data Warehousing
  • The Significant Role of Metadata
  • Principles of Dimensional Modeling
  • Dimensional Modeling : Advanced Topics
  • Data Extraction, Transformation and Loading
  • Data Quality : A Key ti Success
  • Matching Information to the Classes of Users
  • OLAP in the Data Warehouse
  • Data Warehousing and the Web
  • Data Mining Basics
  • The Physical Design Process
  • Data Warehouse Deployment
  • Growth and Maintenance
  • Appendix A : Project Life Cycle Steps ans Checklists
  • Appendix B : Critical Factors for Success
  • Appedix C : Guidelines for Evaluating Vendor Solutions
Critique du livre par la rédaction ygrim le 1er février 2008
Un livre de référence pour toute personne qui veut s'initier et comprendre la philosophie et les technologies sous-jacentes de l'informatique décisionelle (Business Intelligence). Bien qu'en anglais, ce livre se lit très bien et immerge le lecteur très tôt dans les problématiques et la philosophie de l'informatique décisionnelle.
Ce guide de référence propose une introduction très intelligente : comment sommes nous arrivés au principe d'informatique décisionnelle ? Quelles sont les étapes par lesquelles les spécialistes des TI sont passés pour en arriver au BI ? Cette approche permet au lecteur de comprendre l'essence de la discipline et, surtout, de ne pas répéter les erreurs du passé...
Le contenu de ce livre est, jusqu'à présent, le plus exhaustif et explicite que j'ai trouvé. Tout y est passé à la loupe : les concepts fondamentaux, la conception d'entrepôts de données, les ODS, la conception de bases de données multidimensionnelles (étoiles, flocons), la technologie OLAP, les outils End-User, la conception d'ETL, la gestion de projets décisionnels, ... Tout y est passé au crible ! Et d'une manière exemplaire. On sent qu'on a franchi un cap à la fin de chaque chapitre !!
Le seul bémol que j'y ai trouvé est le coté un peu "matraquage" lors de la définition des concepts. En effet, on trouve au début de chaque chapitre un récapitulatif assez long de TOUT ce qui a été dit au paravant. L'auteur n'hésite pas à répéter les définition pour éviter l'aller-retour entre les chapitres du livre. Certains trouveront cette approche pratique, mais cela devient assez lourd et lassant à la fin...
Un véritable guide et une référence complète pour débutant et confirmé. L'ouvrage à garder à portée de main dans toutes les phases d'un projet décisionnel.




 Poster une réponse

Avatar de TomDuBouchon TomDuBouchon - Rédacteur https://www.developpez.com
le 17/10/2011 à 16:32
La rédaction de DVP a lu pour vous l'ouvrage suivant :

Data Warehousing Fundamentals. A comprehensive Guide for IT Professionals,
de Paulraj Ponniah.



Résumé de l'éditeur
Geared to IT professionals eager to get into the all-important field of data warehousing, this book explores all topics needed by those who design and implement data warehouses. Readers will learn about planning requirements, architecture, infrastructure, data preparation, information delivery, implementation, and maintenance. They'll also find a wealth of industry examples garnered from the author's 25 years of experience in designing and implementing databases and data warehouse applications for major corporations. Market: IT Professionals, Consultants.

L'avez-vous lu? Comptez-vous le lire ?

Quel est votre avis?
couverture du livre Big Data

Note 3 drapeau
Détails du livre
Sommaire
Critiques (1)
0 commentaire
 
 

Big Data

Concepts et mise en oeuvre de Hadoop

de
Public visé : Débutant

Résumé de l'éditeur

Ce livre sur Hadoop (versions 1 et 2), vise deux types de publics :
  • Il s'adresse d’une part aux décideurs, qu’ils soient techniciens (responsable informatique, spécialiste de Business Intelligence...) ou pas (responsable de la stratégie, directeur général...), et vise à démystifier le Big Data et Hadoop. Dans les chapitres concernés, les termes techniques sont limités au strict minimum et l'accent est mis, à chaque fois que cela est pertinent, sur l'utilisation et l'impact potentiel du Big Data et de Hadoop : Vue globale de Hadoop, Principaux apports de la version 2, Mettre en œuvre un cluster Hadoop, Hadoop : quand l'utiliser ?
  • Il s'adresse également aux informaticiens, étudiants ou en activité, qui recherchent une première introduction en français, simple (sans être simpliste) et relativement exhaustive, au Big Data et à Hadoop. Les lecteurs concernés seront particulièrement intéressés par les chapitres suivants : Installer Hadoop sur une station de travail, HDFS, MapReduce, Les apports de la version 2, Aspects matériels, L'éco-système de Hadoop, Développer des programmes Hadoop, Mettre en oeuvre un cluster Hadoop

Édition : ENI - 207 pages , 1er février 2014

ISBN10 : 2746086883 - ISBN13 : 9782746086883

Commandez sur www.amazon.fr :

51.30 € TTC (prix éditeur 54.00 € TTC)
Avant-propos
Introduction
Installer Hadoop sur une station de travail
Une vue globale de Hadoop
HDFS
MapReduce
Les apports de la version 2 de Hadoop
Aspects matériels
L'écosystème de Hadoop
Développer des programmes Hadoop
Mettre en œuvre un cluster Hadoop
Quand utiliser Hadoop ?
Conclusion
Critique du livre par la rédaction nico-pyright(c) le 6 juin 2014
Cet ouvrage constitue une courte introduction à la mise en place d’une architecture Hadoop. Vous y découvrirez un petit état de l’art de ce qui existe autour de Hadoop, en partant de la description des concepts, en passant par son installation, jusqu’à l’écriture d’un premier petit programme exemple. On appréciera le retour d’expérience de l’auteur sur les besoins en matériels ainsi que les quelques exemples d’utilisations d'Hadoop par des entreprises connues.

Personnellement, je n’ai pas été vraiment convaincu par cet ouvrage. C’est un point de départ intéressant pour quelqu’un qui ne connait pas le sujet mais au fur et à mesure de la lecture, on a l’impression de lire un tutoriel réalisé en quelques jours, comme on peut en trouver sur internet ; un tutoriel un peu plus long que la normale. Le style est plutôt bâclé, les explications sont très succinctes et on sent que ça manque de structure. Même si effectivement, le ton est annoncé sur le résumé éditeur où il est mentionné que c’est une première introduction simple... Je vous le dis tout de suite, ceci est complètement vrai, il ne faut pas s’attendre à plus.

Ce n’est pas que ce livre n'est pas intéressant, c'est une bonne introduction à Hadoop ; en français. Mais ce qui m’a le plus frappé, c’est le prix de l’ouvrage qui est vraiment très disproportionné à ce qu’on pourrait en attendre. Sûrement que l’éditeur surfe sur la vague de la nouveauté.

À acheter en connaissance de cause.




 Poster une réponse

Avatar de fafabzh6 fafabzh6 - Responsable SAS https://www.developpez.com
le 06/06/2014 à 14:38
Big Data
Concepts et mise en oeuvre de Hadoop


Ce livre sur Hadoop (versions 1 et 2), vise deux types de publics :

  • Il s'adresse d’une part aux décideurs, qu’ils soient techniciens (responsable informatique, spécialiste de Business Intelligence...) ou pas (responsable de la stratégie, directeur général...), et vise à démystifier le Big Data et Hadoop. Dans les chapitres concernés, les termes techniques sont limités au strict minimum et l'accent est mis, à chaque fois que cela est pertinent, sur l'utilisation et l'impact potentiel du Big Data et de Hadoop : Vue globale de Hadoop, Principaux apports de la version 2, Mettre en œuvre un cluster Hadoop, Hadoop : quand l'utiliser ?
  • Il s'adresse également aux informaticiens, étudiants ou en activité, qui recherchent une première introduction en français, simple (sans être simpliste) et relativement exhaustive, au Big Data et à Hadoop. Les lecteurs concernés seront particulièrement intéressés par les chapitres suivants : Installer Hadoop sur une station de travail, HDFS, MapReduce, Les apports de la version 2, Aspects matériels, L'éco-système de Hadoop, Développer des programmes Hadoop, Mettre en oeuvre un cluster Hadoop


[Lire la suite]



Contacter le responsable de la rubrique Business Intelligence