Étincelles haute performance
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com Apache Spark est incroyable quand tout s'enchaîne. Mais si tu n'as pas vu les améliorations de performance que tu attendais, ou si tu ne te sens pas...
Gespeichert in:
Hauptverfasser: | , |
---|---|
Format: | Buch |
Sprache: | fre |
Online-Zugang: | Volltext |
Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
Zusammenfassung: | Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com Apache Spark est incroyable quand tout s'enchaîne. Mais si tu n'as pas vu les améliorations de performance que tu attendais, ou si tu ne te sens pas encore assez confiant pour utiliser Spark en production, ce livre pratique est fait pour toi. Les auteurs Holden Karau et Rachel Warren démontrent des optimisations de performances pour aider tes requêtes Spark à s'exécuter plus rapidement et à gérer des tailles de données plus importantes, tout en utilisant moins de ressources.
Idéal pour les ingénieurs logiciels, les ingénieurs de données, les développeurs et les administrateurs système qui travaillent avec des applications de données à grande échelle, ce livre décrit des techniques qui peuvent réduire les coûts de l'infrastructure de données et les heures de travail des développeurs. Non seulement tu auras une compréhension plus complète de Spark, mais tu apprendras aussi à le faire chanter.
Avec ce livre, tu exploreras :
Comment les nouvelles interfaces de Spark SQL améliorent les performances par rapport à la structure de données RDD de SQL.
Le choix entre les jointures de données dans Core Spark et Spark SQL
Techniques pour tirer le meilleur parti des transformations RDD standard.
Comment contourner les problèmes de performance dans le paradigme des paires clé/valeur de Spark.
Écrire du code Spark très performant sans Scala ni JVM
Comment tester les fonctionnalités et les performances lors de l'application des améliorations suggérées.
Utiliser Spark MLlib et les bibliothèques d'apprentissage automatique Spark ML
Les composants Streaming de Spark et les paquets de la communauté externe |
---|