Beim aktuellen Kunden aus der Schweiz, werden die Postleitzahlen über eine CSV geladen und in ein Array gesteckt. Kann man machen aber was nicht geht, dass das CSV über 1000 Dubletten enthält. Also 1000,1000,1000,1000,1000,1000,1001,1001,1002 und so weiter. Meine erste Amtshandlung war die Bereinigung der Dubletten. Dafür habe ich folgendes JS Script geschrieben.
function readCSVFile(file)
{
var raw = new XMLHttpRequest();
rawText.open("GET", file, true);
rawText.onreadystatechange = function ()
{
if(rawText.readyState === 4)
{
if(rawText.status === 200 || rawText.status == 0)
{
let string = rawText.responseText;
let _arr = string.split(",");
let arr = eliminateDuplicates(_arr);
console.log(“string“, arr.toString());
}
}
}
rawText.send(null);
}
function eliminateDuplicates(arr) {
let i,
len = arr.length,
out = [],
obj = {};
for (i = 0; i < len; i++) {
obj[arr[i]] = 0;
}
for (i in obj) {
out.push(i);
}
return out;
}
let csvFile = “dublettenDatei.csv“
readCSVFile(csvFile)
Die Ausgabe habe ich dann in die Konsole geschrieben und somit konnte ich es einfach kopieren um es in die neue CSV Datei dublettenFreieDatei.csv zu kopieren.