L'idée est?:
étant donné qu'un grand CSV factice (1 million de lignes) contient un échantillon de données client et effectue le traitement avec les objectifs ci-dessous?:
- Extraire les données du CSV
- Calculer combien de données/lignes
- Regrouper combien de clients pour chaque ville
- Trier les villes par nombre de clients du plus élevé au plus bas
- Calculer le temps de traitement
Un exemple CSV des clients peut être téléchargé ici https://github.com/datablist/sample-csv-files
Charger et extraire des données
Apparemment, Go a une bibliothèque standard pour le traitement CSV. Nous n'avons plus besoin de dépendance tierce pour résoudre notre problème, ce qui est bien. La solution est donc assez simple?:
// open the file to a reader interface c, err := os.Open("../data/customers-1000000.csv") if err != nil { log.Fatal(err) } defer c.Close() // load file reader into csv reader // Need to set FieldsPerRecord to -1 to skip fields checking r := csv.NewReader(c) r.FieldsPerRecord = -1 r.ReuseRecord = true records, err := r.ReadAll() if err != nil { log.Fatal(err) }
- Ouvrez le fichier à partir du chemin indiqué
- Charger le fichier ouvert sur le lecteur CSV
- Contient tous les enregistrements/lignes CSV extraits dans une tranche d'enregistrements pour un traitement ultérieur
FieldsPerRecord est défini sur -1 car je souhaite ignorer la vérification des champs sur la ligne, car le nombre de champs ou de colonnes peut être différent dans chaque format
Dans cet état, nous sommes déjà en mesure de charger et d'extraire toutes les données du CSV et sommes prêts pour le prochain état de traitement. Nous pourrons également savoir combien de lignes dans CSV en utilisant la fonction len(records).
Regroupement du nombre total de clients dans chaque ville
Nous pouvons désormais parcourir les enregistrements et créer la carte contenant le nom de la ville et le nombre total de clients qui ressemble à ceci?:
["Jakarta": 10, "Bandung": 200, ...]
Les données de la ville dans la ligne CSV sont situées dans le 7ème index et le code ressemblera à ceci
// create hashmap to populate city with total customers based on the csv data rows // hashmap will looks like be ["city name": 100, ...] m := map[string]int{} for i, record := range records { // skip header row if i == 0 { continue } if _, found := m[record[6]]; found { m[record[6]]++ } else { m[record[6]] = 1 } }
Si le plan de la ville n'existe pas, créez une nouvelle carte et définissez le total du client sur 1. Sinon, incrémentez simplement le nombre total de villes données.
Maintenant, nous avons la carte m contenant une collection de villes et le nombre de clients à l'intérieur. à ce stade, nous avons déjà résolu le problème du regroupement du nombre de clients pour chaque ville.
Trier le client total le plus élevé
J'ai essayé de trouver s'il existe une fonction dans la bibliothèque standard pour trier la carte mais malheureusement je ne l'ai pas trouvée. Tri possible uniquement pour la tranche car nous pouvons réorganiser l'ordre des données en fonction de la position de l'index. Alors oui, faisons une tranche de notre carte actuelle.
// convert to slice first for sorting purposes dc := []CityDistribution{} for k, v := range m { dc = append(dc, CityDistribution{City: k, CustomerCount: v}) }
Maintenant, comment l'avons-nous trié par CustomerCount du plus élevé au plus bas?? L’algorithme le plus courant pour cela utilise le bubble short. Bien que ce ne soit pas le plus rapide, il pourrait faire l'affaire.
Bubble Sort est l'algorithme de tri le plus simple qui fonctionne en échangeant à plusieurs reprises les éléments adjacents s'ils sont dans le mauvais ordre. Cet algorithme ne convient pas aux grands ensembles de données car sa complexité temporelle moyenne et dans le pire des cas est assez élevée.
Référence?: https://www.geeksforgeeks.org/bubble-sort-algorithm/
En utilisant notre tranche, il bouclera sur les données et vérifiera la valeur suivante de l'index et l'échangera si les données actuelles sont inférieures à l'index suivant. Vous pouvez vérifier l'algorithme de détail sur le site de référence.
Maintenant, notre processus de tri pourrait être comme ?a
// open the file to a reader interface c, err := os.Open("../data/customers-1000000.csv") if err != nil { log.Fatal(err) } defer c.Close() // load file reader into csv reader // Need to set FieldsPerRecord to -1 to skip fields checking r := csv.NewReader(c) r.FieldsPerRecord = -1 r.ReuseRecord = true records, err := r.ReadAll() if err != nil { log.Fatal(err) }
à la fin de la boucle, la tranche finale nous donnera des données triées.
Calculer le temps de traitement
Calculer le temps de traitement est assez simple, nous obtenons l'horodatage avant et après l'exécution du processus principal du programme et calculons la différence. En Go, l'approche devrait être assez simple?:
["Jakarta": 10, "Bandung": 200, ...]
Le résultat
Exécutez le programme avec la commande
// create hashmap to populate city with total customers based on the csv data rows // hashmap will looks like be ["city name": 100, ...] m := map[string]int{} for i, record := range records { // skip header row if i == 0 { continue } if _, found := m[record[6]]; found { m[record[6]]++ } else { m[record[6]] = 1 } }
Les informations imprimées indiqueraient le nombre de lignes, les données triées et le temps de traitement. Quelque chose comme ceci ci-dessous?:
Comme prévu par les performances de Go, il a traité 1 million de lignes CSV en moins d'une seconde?!
Tous les codes complétés sont déjà publiés sur mon référentiel Github?:
https://github.com/didikz/csv-processing/tree/main/golang
Le?on apprise
- Le traitement CSV dans Go est déjà disponible dans la bibliothèque standard, pas besoin d'utiliser une bibliothèque tierce
- Le traitement des données est assez simple. Le défi était de savoir comment trier les données car il fallait le faire manuellement
Qu'est-ce qui vous vient à l'esprit??
Je pensais que ma solution actuelle pourrait être optimisée davantage car j'ai bouclé tous les enregistrements extraits au format CSV pour les mapper et si nous avons vérifié la source ReadAll(), elle a également une boucle pour créer la tranche basée sur le lecteur de fichier donné. De cette manière, des lignes de 1 Mil pourraient produire 2 x boucles pour des données de 1 Mil, ce qui n'est pas agréable.
Je pensais que si je pouvais lire les données directement à partir du lecteur de fichiers, cela n'aurait besoin que d'une seule boucle car je pourrais créer une carte directement à partir de celui-ci. Sauf que la tranche d'enregistrements sera utilisée ailleurs mais pas dans ce cas.
Je n'ai pas encore le temps de le comprendre, mais j'ai aussi pensé à certains inconvénients si je le fais manuellement?:
- Il faudra probablement gérer davantage d'erreurs du processus d'analyse
- Je ne sais pas dans quelle mesure cela réduira le temps de traitement pour considérer que la solution de contournement en vaudra la peine ou non
Bon codage?!
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undress AI Tool
Images de déshabillage gratuites

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
échangez les visages dans n'importe quelle vidéo sans effort grace à notre outil d'échange de visage AI entièrement gratuit?!

Article chaud

Outils chauds

Bloc-notes++7.3.1
éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

La manipulation efficace de JSON dans GO nécessite une attention aux étiquettes structurelles, aux champs facultatifs et à l'analyse dynamique. Utilisez la balise struct pour personnaliser le nom de la clé JSON, tel que JSON: "nom"; Assurez-vous que les champs sont exportés pour accès par le package JSON. Utilisez des pointeurs ou des balises omitempty lors du traitement des champs facultatifs pour distinguer les valeurs non à l'instruction des zéros explicites. Lors de l'analyse de JSON inconnue, l'interface Map [String] {} peut être utilisée pour extraire des données avec des assertions de type. Le numéro par défaut sera analysé comme Float64. JSON.Marshalindent peut être utilisé pour embellir la production pendant le débogage, mais l'environnement de production devrait éviter la mise en forme inutile. La ma?trise de ces techniques peut améliorer la robustesse et la capacité de votre code

Les programmes GO peuvent en effet interagir avec le code C via CGO, ce qui permet à Go d'appeler directement les fonctions C. Lorsque vous utilisez CGO, importez simplement le pseudo-package "C" et intégrez le code C dans les commentaires ci-dessus de la ligne d'importation, tels que l'inclusion de définitions de fonctions et les appeler. De plus, la bibliothèque C externe peut être liée en spécifiant les indicateurs de liaison tels que #cgoldflags. Cependant, il existe de nombreux problèmes auxquels faire attention lors de l'utilisation de CGO: 1. La gestion de la mémoire doit être traitée manuellement et ne peut pas compter sur la collecte des ordures Go; 2. Les types GO peuvent ne pas correspondre aux types C, et des types tels que C.INT doivent être utilisés pour garantir la cohérence; 3. Plusieurs appels de goroutine vers des bibliothèques C non-secours peuvent causer des problèmes de concurrence; 4. Il y a des surcharges de performances pour l'appel C du code, et le nombre d'appels à travers les limites de la langue doit être réduit. Le manque de cgo

Oui, GoApplicationsCanBeCross-CompiledfordiFferentOperatingSystemsandarchitectures.Todothis, FirstSetThegoosandgoarchenvironmentVariabeLestOspecifyTheTargetosandarchitecture, telasgoos = linuxGoarch = AMD64ForalinuxBinaryorGoos = WindowsGoarch = Arm64forAwindow

Go simplifie l'utilisation des pointeurs et améliore la sécurité. 1. Il ne prend pas en charge l'arithmétique du pointeur pour éviter les erreurs de mémoire; 2. Collection automatique des ordures et gestion de la mémoire sans allocation ou libération manuelle; 3. La méthode de structure peut utiliser de manière transparente des valeurs ou des pointeurs, et la syntaxe est plus concise; 4. Pointers s?rs par défaut pour réduire le risque de suspension des pointeurs et des fuites de mémoire. Ces conceptions sont plus faciles à utiliser et plus s?res que C / C, mais sacrifiez certaines des capacités de contr?le sous-jacentes.

GO compile le programme dans un binaire autonome par défaut, la raison principale est la liaison statique. 1. Déploiement plus simple: aucune installation supplémentaire de bibliothèques de dépendances, ne peut être exécutée directement sur les distributions Linux; 2. 3. Prévisibilité et sécurité plus élevées: éviter les risques provoqués par les changements dans les versions externes de la bibliothèque et améliorer la stabilité; 4. Flexibilité de fonctionnement limitée: Impossible de mise à jour à chaud des bibliothèques partagées, et se recompiler et le déploiement sont nécessaires pour corriger les vulnérabilités de dépendance. Ces fonctionnalités sont adaptées aux outils CLI, aux microservices et à d'autres scénarios, mais des compromis sont nécessaires dans les environnements où le stockage est restreint ou repose sur une gestion centralisée.

GoEnsuresMemorySafetywithoutmanual Management ThroughhroughAutomaticGarBageCollection, nopointeraRITHMetic, SafeConcurrency, AndruntimeCkecks.first, Go’sgarBageColEctorAutomAccilmatmestsunusedMemory, empêchant le sanddanglingpoiners.

Pour créer un canal tampon dans GO, spécifiez simplement les paramètres de capacité dans la fonction de faire. Le canal tampon permet à l'opération d'envoi de stocker temporairement les données en cas de récepteur, tant que la capacité spécifiée n'est pas dépassée. Par exemple, Ch: = Make (Chanint, 10) crée un canal tampon qui peut stocker jusqu'à 10 valeurs entières; Contrairement aux canaux non frappés, les données ne seront pas bloquées immédiatement lors de l'envoi, mais les données seront temporairement stockées dans le tampon jusqu'à ce qu'elles soient enlevées par le récepteur; Lorsque vous l'utilisez, veuillez noter: 1. Le réglage de la capacité doit être raisonnable pour éviter les déchets de mémoire ou le blocage fréquent; 2. Le tampon doit empêcher l'accumulation de problèmes de mémoire indéfiniment dans le tampon; 3. Le signal peut être passé par le type de chantruct {} pour enregistrer les ressources; Les scénarios courants incluent le contr?le du nombre de modèles de concurrence et de consommation producteur et de différenciation

GO est idéal pour la programmation système car il combine les performances des langages compilés tels que C avec la facilité d'utilisation et la sécurité des langages modernes. 1. En termes d'opérations de fichiers et de répertoires, le package OS de GO prend en charge la création, la suppression, le renommage et la vérification si les fichiers et les répertoires existent. Utilisez OS.Readfile pour lire l'intégralité du fichier dans une ligne de code, qui convient à l'écriture de scripts de sauvegarde ou d'outils de traitement de journal; 2. 3. En termes de réseau et de concurrence, le package net prend en charge la programmation TCP / UDP, la requête DNS et les ensembles originaux.
