In der Statistik dreht es sich häufig um Hypothesen, also Annahmen, die man bestätigen oder zurückweisen möchte. Sind die Erbsen der einen Sorte süßer, als die der anderen? Hilft das eine Medikament besser als das andere? Leben Patienten mit Tumortyp I länger als welche mit Typ II oder werden sogar wieder gesund?

In diesem Zusammenhang arbeitet man oft mit dem T-Test. Weil es immer schön einsichtig ist, nehmen wir ein Beispiel, sagen wir die Größe von Erbsen der einen und der anderen Sorte. Zunächst werden alle ausgemessen und in zwei Listen aufgeteilt.

Bevor wir richtig loslegen, müssen wir kurz überlegen oder in den Daten mal genau nachschauen, ob die Größe der Erbsen einer Sorte jeweils normalverteilt sind. Das heisst, es gibt viele die ungefähr Größe M haben und ziemlich wenige, die viel größer oder viel kleiner als M sind. Die Normalverteilung (=Gaußkurve) ist sicher bekannt, man sieht sie auch oben im Blog-Banner links. So eine Verteilung entsteht, wenn man seine Erbsen (für beide Sorten getrennt) sortieren würde, wie ich es hier gemacht habe: die kleinen links, die großen rechts, in gleich großen Intervallen (bei mir im Beispiel allerdings mehr pi-mal-Daum). Meine Erbsen sind also netterweise tatsächlich ungefähr normalverteilt.

i-86d09b65ae19f1233d20ad2c98033866-erbsen1_heller.jpg

Was ist, wenn die Daten nicht normalverteilt sind? Dann sieht es schlecht aus mit dem T-Test, dann hat der so, wie er berechnet wird, keine ordentliche Aussagekraft. Zum Glück gibt es aber andere Tests, bei denen so eine Voraussetzung nicht erfüllt sein muss, z.B. den U-Test.

Nachdem das geklärt ist, guckt man als erstes auf den Mittelwert: Sind beide Sorten im Mittel unterschiedlich? Das ist schonmal sehr wahrscheinlich, es wird kaum passieren, dass beide Werte exakt gleich sind. Aber sind sie unterschiedlich genug?

Jetzt kommt die Varianz mit ins Spiel. Meine Erbsen sind alle ähnlich groß, die Werte liegen zwischen 5mm und 7mm im Durchmesser. Die Varianz ist jetzt die Abweichung vom Mittelwert(6mm) (MW-xi) zum Quadrat(es werden also die, die weiter vom Mittelwert entfernt sind stärker berücksichtigt, als die in der Nähe), aufsummiert über alle Erbsen und dann geteilt durch n-1. Davon die Wurzel ist die Standardabweichung:

i-e4705f2b09cf2be90a757f2852690108-Standardabweichung.png

Wer jetzt den letzten Satz einfach übersprungen hat, der möge ihn bitte nochmal lesen, man kann Formeln auch verstehen, nicht nur sie verwenden!

Hätte ich also Erbsen mit größerer Varianz (also auch Standardabweichung) in ihrer Verteilung, dann wären auch welche mit 8mm und 4mm dabei und dafür wäre die Spitze bei den mittleren Werten nicht so hoch, weil es sich ja mehr an den Seiten verteilt. Bei weniger Varianz hätte ich vielleicht nur Erbsen bis 6,5mm und 5,5mm und die Mitte der Gaußkurve wäre höher.

i-00a7ab3f87ff74df75e5f11c93ef0d8e-Normalverteilung.jpg

(Quelle: Wikipedia; rot und grün mit höherer Varianz, als blau; grün und blau haben den gleichen Mittelwert)

Nun kann man sich vorstellen: Wenn für beide Erbsensorten die Varianz klein und die Gaußkurve entsprechend schmal und hoch ist, dann wäre ein kleiner Unterschied im Mittelwert (also der Spitzen) von vielleicht 1mm schon aussagekräftig. Dann würden die Flächen der beiden Verteilungen sich nur wenig überschneiden. Wären die Varianzen groß, müssen die Mittelwerte schon deutlich auseinanderliegen, damit man einen echten Unterschied hat, also die Schnittfläche der Verteilungen gering genug ist. Im obigen Beispiel ist die Schnittfläche zwischen roter und grüner Verteilung ziemlich groß!

Jetzt muss man noch berücksichtigen, wie exakt unsere Zahlen sind. Hat man wenig Erbsen gezählt, kann es sein, dass wir uns ziemlich verschätzen beim Mittelwert und der Streuung. Je mehr Erbsen, umso sicherer können wir sein (die Mühe habe ich mir jetzt mal nicht gemacht, das war schon fummelig genug!).

Wenn wir zwei Verteilungen betrachten, müssen wir noch die gewichtete Varianz bestimmt. Da fließen die Varianzen der beiden Stichproben ein, gewichtet mit der Stichprobengröße – die größere Stichprobe hat mehr Einfluß.

i-aadc711edd015beb03766ef4ffbdcf2d-standardabweichung2.jpg

Jetzt berechnet der T-Test wie weit die Mittelwerte der beiden Gruppen, x und y, voneinander verschieden sind, normiert durch die gewichtete Varianz (bei großer Varianz weniger aussagekräftig, als bei kleiner) und das wird noch multipliziert mit einem Faktor, der die Anzahl der Erbsen und somit die Verlässlichkeit der Stichprobe berücksichtigt:

i-72b231b5c186c3a3e02bc217587c8481-ttest.png

(Für die, die auf Genauigkeit pochen: Da es hier mit den Formeln nicht so einfach ist, bzw. ich weiss noch nicht, wie ich die gut setzen kann: x mit Querstrich bedeutet Mittelwert der Stichprobe X, in der Formel steht es richtig, im Text krieg ich keinen Strich draufgezaubert, deswegen steht da nur ein x, es soll aber das gleich heissen.)

Wir haben unser t!

Äh, t?

Das t sagt uns, wie signifikant der Unterschied ist. t kann sowohl negativ als auch positiv sein – negativ bedeutet, dass der Mittelwert x kleiner als Mittelwert y unseres Versuchs war; positiv entsprechend anders herum.

Jetzt müssen wir noch festlegen, wieviel Fehlerraum wir unseren Daten zugestehen wollen. Sagen wir, dass mit einer Wahrscheinlichkeit von 5% es Zufall sein könnte, dass die Erbsen alle zufällig in Gruppe x kleiner als in Gruppe y wären. Diese Fehlerprozente (“alpha”) sollten möglichst klein sein, um solche Fehler ziemlich unmöglich zu machen – ausschließen kann man sie aber nie. Die Wahrscheinlichkeit 100-alpha, also hier 95%, ist die Konfidenz, die Sicherheit, dass man richtig liegt.

Mit den Werten t und der Größe der Stichprobe (hier die Anzahl der Erbsen) geht man in einer Tabelle nachgucken, heutzutage fragt man wahrscheinlich das Statistikprogramm, wie groß der Fehler durch Zufall sein dürfte. Ist er kleiner als alpha, sieht es gut aus und man kann das Ergebnis schön publizieren. Ist er es nicht, weiss man nichts. Man könnte neue Tests machen oder sich andere Erbsen züchten. Angeblich sind auch Negativergebnisse nützliche Ergebnisse, erfahrungsgemäß sieht es mit dem publizieren dann aber nicht so doll aus.

So, fragt jetzt noch einer, was man da jetzt im Statistikprogramm oder der Tabelle nachgeguckt hat, dann sollte ich auch diese Frage wohl beantworten.

Das t entstammt einer t-Verteilung mit den Freiheitsgraden n(=Anzahl Erbsen)-1, die sieht ungefähr wie eine Normalverteilung aus, bei größeren n zunehmend schmaler (und höher) mit Mittelwert 0.

Was bedeutet das?
Das bedeutet, dass wenn man sehr viele Tests mit irgendwelchen Daten machte, von denen man wüsste, dass es keine Unterschiede in den Mittelwerten gibt, dann würden die berechneten t-Werte vorrangig in der Nähe von 0 zu finden sein – die Differenz der Mittelwerte ist halt ungefähr null. Selten kann es passieren, dass doch, zufällig, eine größere Differenz ermittelt wird und somit ein größerer t-Wert. Je mehr Daten man hat (größeres n), umso unwahrscheinlicher wird das aber, deswegen sind diese Verteilungen mit hohem Freiheitsgrad schmaler.

Das Statistik-Programm verrät uns also den Flächeninhalt der t-Verteilung ab der Stelle t bis unendlich – das entspricht der Wahrscheinlichkeit, dass wir zwar eine Differenz messen, es aber nur auf Zufall beruht. Sowas nennt man auch ein falsch-positives Ergebnis. Und diese Fehlerwahrscheinlichkeit sollte nach unserer Vorgabe unter dem Wert alpha=5% (5% der Fläche) liegen.

Genug der Erbsenzählerei!
Andrea Thum

Kommentare (32)

  1. #1 yo-yo
    August 17, 2010

    Toller Beitrag, danke! Es wird leider viel zu wenig über Statistik gebloggt. Was ich als Biologe eigentlich schade finde.

  2. #2 kommentarabo
    August 17, 2010

  3. #3 Andrea T.
    August 17, 2010

    @yo-yo: Also du kannst dir noch ein Thema wünschen – Vielleicht schaffe ich es ja, was dazu zu schreiben 😉

  4. #4 MisterX
    August 17, 2010

    Ja, sehr guter Artikel ! Bei solchen Beitraegen lohnt es sich hier regel maessig vorbei zuschauen.

  5. #5 Joe Dramiga
    August 17, 2010

    Ein schöner Artikel. Was sie schon immer über den T-Test wissen wollten und nie zu fragen wagten. Vielleicht interessiert Dich folgender Statistik-Artikel von mir (einem Laien):

    “Unterschied zwischen Präzision und Genauigkeit”

    https://lichtblume.wordpress.com/2010/04/20/unterschied-zwischen-prazision-und-genauigkeit/

  6. #6 yo-yo
    August 17, 2010

    @Andrea T.: Nun, alles, was das Bilden und Testen von Hypothesen angeht, wäre meiner Meinung nach ein heißer Tipp. Das brauchen viele sehr und machen da auch sicher viele Fehler. Ich weiß aber nicht, ob man das Thema auch allgemeinverständlich zusammenfassen kann 🙂

  7. #7 Andrea T.
    August 17, 2010

    @yo-yo: Ja, das ist ein weites Feld, ich wollte das mal nach und nach beackern. Hab bei Wikipedia reingeschaut – schrecklich, das versteht man als Laie gar nicht.

    Ansonsten wär hier jetzt der richtige Platz, um Links zu guten Statistik-Erklär-Seiten zu melden. Kennt ihr welche?

    @ Joe Dramiga: Das habe ich in der Genauigkeit auch noch nicht gewusst – habe noch nie im Labor gearbeitet 🙂 Die anderen Artikel sind auch schön, ich fand den mit dem Stillen besonders interessant 🙂

  8. #8 yo-yo
    August 18, 2010

    @Andrea T: Weiß nicht, ob es eine richtige “Erklärseiten” sind, gut sind sie aber auf jeden Fall:
    https://www.statsoft.com/textbook
    https://www.tufts.edu/~gdallal/LHSP.HTM

  9. #9 Stefan W.
    August 19, 2010

    Schön, schön, aber was mir noch fehlt, ist, was für ein t jetzt für die Erbsen rauskam, und was es heißt.

    Bei zwei zufälligen Stichproben aus einer Gaußverteilung erwartet man Werte nahe 0, aber bei zwei unterschiedlichen Verteilungen? Werte nahe 1 oder -1? Kommt auf den Meßwert an (Meter oder Millimeter)?

  10. #10 Andrea Thum
    August 19, 2010

    @ Stefan: Ich hab schon drauf gewartet, dass jemand echte Zahlen sehen will… aber dazu müsste ich mir jetzt was ausdenken, weil ich ja nur eine Sorte Erbsen in Echt da hatte 🙂

    Bei zwei unterschiedlichen Verteilungen kann was ganz beliebiges rauskommen. Wenn du zwei Gaussverteilungen meinst, eine um Mittelwert X, die andere um Mittelwert Y, wird was um MW X-Y rauskommen. Oder woran dachtest du?

  11. #11 Niels
    August 19, 2010

    Schöner Artikel.

    Zum Thema “man kann Formeln auch verstehen, nicht nur sie verwenden” hätte ich aber noch eine Bitte:
    Warum sagt uns dieses t, wie signifikant der Unterschied ist? Wie kommt man auf diese Formel für t?

  12. #12 Andrea Thum
    August 20, 2010

    @Stefan nochmal: Äh, der letzte Satz war Quatsch, da war es wohl schon zu spät für mein Gehirn 😉 Das was rauskommt hängt massgeblich von der Streuung der Daten ab. Bei kleiner Streuung und großer Differenz der Mittelwerte können also beliebig große Zahlen rauskommen beim t, andersrum bei großer Streuung kommen Werte nahe 0 raus.

    @Niels: Dieses t haben sich die Herren Gosset und Fisher vor 100 Jahren überlegt und nachgewiesen unter welchen Bedingungen das gilt. Man kann ja auch eine andere Formel verwenden, einfach X-Y, z.B., aber dann kann man keine Aussage treffen, wie signifikant das Ergebnis ist, im Gegensatz zum T-Test.

  13. #13 Wb
    August 21, 2010

    Drei Fragen:
    – Wie kommt man anfänglich auf die Normalverteilung?
    – Mit welchen Konfidenzen wird denn so gearbeitet, 95% scheinen doch “etwas” riskant, oder?
    – “ist die Konfidenz, die Sicherheit, dass man richtig liegt.”, hierzu: Ist es nicht so, dass man nicht etwa eine Sicherheit errechnet richtig zu liegen, sondern einen Wert, der angibt, dass die vorliegenden Ergebnisse – bestimmten Voraussetzungen entsprechend – “nur” mit einer gewissen Wahrscheinlichkeit zufällig entstanden sein können?

    MFG
    Wb

  14. #14 Andrea T.
    August 21, 2010

    @Wb: Bin mir nicht sicher (wieso oft), ob ich deine Fragen richtig verstehe. Ich versuch es mal.
    1. Die Normalverteilung muss in den Daten vorhanden sein. Das kriegt man raus, indem man ein Histogramm macht, also das, was ich mit den Erbsen gemacht habe. oder man verwendet einen speziellen Test, den gibt es auch dafür.
    2. Es wird mit 5% oder 1% gearbeitet. Beides ist prinzipiell okay. Sinnvoll ist es aber immer, die Ergebnisse begründen oder reproduzieren zu können.
    3. Ich hätt jetzt gesagt, dass das dasselbe ist. Die Sicherheit, also die Wahrscheinlichkeit, dass es kein falsch-positives Ergebnis ist, korrespondiert ja grade mit dem Risiko, dass es Zufall ist. 95% Konfidenz = 100%-5% Risiko.

  15. #15 Wb
    August 21, 2010

    Was folgt daraus, wenn ein bestimmtes Analyseresultat mit Wahrscheinlichkeit X auf reinen Zufall zurückgeführt werden könnte? Dass (1-x) für die zu prüfende Annahme gelten?

    Ansonsten, Werte von 1-5% überraschen hier stark, denn diese Wahrscheinlichkeiten sind so zu sagen überall anzutreffen, der Wb hätte hier Werte kleiner 1/oo erwartet.

    Danke für die Antwort, MFG
    Wb

  16. #16 Andrea Thum
    August 21, 2010

    @WB:”Dass (1-x) für die zu prüfende Annahme gelten?”
    1. Äh ja, äh, nee, verstehe ich nicht, sag’s nochmal mit anderen Worten 🙂
    2. Wenn man zu kleine Werte nimmt, kommt am Ende gar nichts mehr raus. Man hätte jetzt mit echten Daten was zeigen müssen – die 5% entsprechen auch ungefähr dem Empfinden, dass da wirklich ein Unterschied “zu sehen” ist.

  17. #17 Wb
    August 21, 2010

    Bleiben wir im Beispiel, wir haben 100 Erbsen der einen und 100 der anderen Sorte, messen daran herum, kommen zum Schluss, dass wir hier mit dem t-Test ran dürfen und ermitteln dann, dass die Erbsen der einen Sorte mit einer Konfidenz von 95% grösser sind.

    D.h. oder scheint zu heißen, dass mit einer Wahrscheinlichkeit von 5% ein Erbsengenerator, der mit Hilfe eines Zufallsgenerators [1] zwei hundertelementige Erbsenmengen erzeugt, die unserer Erbsenmenge i.p. Größendaten sehr nahekommt.

    Daraus jetzt aber zu schliessen, “Hey, wir liegen mit einer Wahrscheinlichkeit von 95% in Bezug auf unsere Hypothese richtig.”, scheint dem alten Webbaeren aber dezent formuliert nicht richtig.

    MFG
    Wb

    [1] und einer geeigneten Regelmenge, hier eröffnen sich weitere Fragen

  18. #18 Andrea Thum
    August 22, 2010

    @Wb: Die Hypothese für den T-Test ist eigentlich: Beide Erbsensorten sind gleich. Diese würde in deinem Beispiel zurückgewiesen werden, mit einer Fehlerwahrscheinlichkeit von 5%, da es nun mal sehr selten ist, dass der Zufallsgenerator die Erbsen gerade so verteilt.

    Das einzige, was man nicht schätzen und berechenen kann ist die Wahrscheinlichkeit, dass der T-test einen p-Wert > 5% herausfindet, obwohl in den Daten tatsächlich ein Unterschied besteht, also die Anzahl der falsch-negativen Ergebnisse. Aber das meinst du nicht. *Kopfkratz*

  19. #19 Wb
    August 22, 2010

    “Beide Erbsensorte sind exakt gleich groß.” kann keine Arbeitshypothese gewesen sein. Es muss immer eine Bedingung der Art +-x dabei gewesen sein. Wb vllt später noch mal zum Thema dabei. Vielleicht hilft es mit eigens generierten Datenproben und eigens bereiteten Rechnungen am Ball zu bleiben, dabei auch die Bedeutung der Ergebnisse möglichst präzise zu beschreiben…

    Dass der t-Test irgendwie funktioniert, dass die Abnehmerzufriedenheit sicherstellende Werte generiert werden können und dass alle dann irgendwie happy werden, steht außer Frage, es geht dem Wb aber, liebe Andrea, um das Wesen der Stochatik (aufgehängt an diesem kleinen Test, BTW: das dieser nie richtig begriffen hat, höhö).

    MFG
    Wb

  20. #20 Andrea Thum
    August 22, 2010

    Achso, es ging um die allgemeine Aussagefähigkeit der gesamten Statistik, also um den Ansatz, der hinter allem steht!
    Mhm.
    Also die Arbeitshypothese (man kann das ja in verschiedenen Formen formulieren) war: die Größe (oder Süße) beider Erbsensorten entstammt derselben Grundgesamtheit, sprich derselben (normal-)Verteilung. Jetzt der Vollständigkeit halber. War in deinem Zufallsexperiment ja der Fall. Klingt das jetzt besser?

  21. #21 Wb
    August 22, 2010

    @Andrea
    Nehmen wir mal an wir haben eine Konfidenz (Wb mal bei der WP nachgelesen haben, aber nix gelernt) von 95%, was bedeutet dieser Wert genau? “Die Sicherheit, dass man richtig liegt.” [1] wohl nicht, gell?

    Hmm, nochmal den Artikel gelesen, wir haben zwei Erbsengruppen und wollen was genau herausfinden? Dass Erbsen der Gruppe A grösser sind als die der Gruppe B oder vice versa?

    Aber, bevors hier ins therapeutisch-pastorale geht, erst mal danke…
    🙂

    MFG
    Wb

    [1] BTW und aufs Bsp. bez.: Womit?

  22. #22 Andrea T.
    August 23, 2010

    *lach* ich helfe dir gern weiter, Wb, gib nicht auf 😉
    Wikipedia (WP?) ist sicher nicht aufschlussreich, wenn man nicht schon weiss, worum es beim Testen geht.
    95% bedeutet halt: wenn man 100.000 Tests macht, kommt bei ziemlich genau 5.000 Tests – obwohl beide Erbsensorten gleich sind, dass diese scheinbar unterschiedlich sind. Aber ich glaube, wir drehen uns im Kreis.

  23. #23 JV
    August 23, 2010

    Als außenstehender Leser, der trotz einer umfassenden Statistikausbildung ebenfalls nicht erkennt, was genau eigentlich das Problem sein soll, kann ich Wb nur raten: Wenn man wirklich eine Frage hat, hilft es, diese Frage deutlich zu stellen. Deutlich meint in diesem Fall, auf diesen ermüdenden und dämlichen Dritte-Person-Schreibstil zu verzichten.

  24. #24 Mauzer
    August 23, 2010

    Ich versuche mal zu erklären worum es bei diesen Tests geht: Und zwar will man feststellen ob ein wirklich SIGNIFIKANTER Unterscheid zwischen zwei Stichprobenuntersuchengen besteht, also ob die zwei Gruppen tatsächlich unterschiedliche Eigenschaften, Wirkungen (Medikamente) usw. haben, die nicht auf z.B. Messfehler (zufällige Fehler) zurückzuführen sind. Man gibt sich ein alpha vor z.B: 5% und konstruiert ein Konfidenzintervall, d.h. der richtige (Mittel-)Wert befindet sich mit 1-alpha=0,95, entsprechend 95%, in diesem Intervall. Anschließend werden beide Intervalle miteinander verglichen und i.d.R. sind beide Gruppen signifikant unterschiedlich, wenn sich die Intervalle nicht überschneiden.

  25. #25 Chris
    August 24, 2010

    Aus reiner Neugier: um welchen t-test handelt es sich hier?
    (oder hab ich es ueberlesen?)

  26. #26 Andrea Thum
    August 25, 2010

    @Chris: Der “normale” T-Test, wie er im allgemeinen gebraucht wird. In diesem Fall der Zweistichproben-Test auf gleichen/unterschiedlichen Erwartungswert.

  27. #27 knorke
    September 9, 2010

    Könnte auch sein dass WB darauf anspielt, dass zweiseitiges Testen ihm nicht reicht. Ich habe da so diesen +-x Satz vor Augen, als hätte WB das Problem, dass er angeben muss, ob was signifikant größer ist. Keine Ahnung, ist das einzige, was mir dazu jetzt einfällt, weil er von Arbeitshypothese etc. geschrieben hat.

  28. #28 Dr. Webbaer
    Oktober 8, 2010

    Dr. Webbaer mittlerweile seine Frage auf den Punkt gebracht zu haben meinen, kommt demnächst per E-Mail rein, musste ein wenig nachgedacht werden, bis denne!
    Wb

  29. #29 Herr Unger
    Oktober 25, 2010

    Zur Formel Std.abweichung:

    Warum geteilt durch (n-1) und nicht n ??

  30. #30 A. Thum
    Oktober 25, 2010

    @Herr Unger:
    Ergibt sich so aus der Formel der Varianz.
    Habe gerade nochmal nachgelesen, manche geben auch die durch-n-Variante an, das ist aber der Maximum-Likelihood-Schätzer der Standardabweichung – aber das meinen Sie vermutlich nicht, oder?

  31. #31 giordano
    November 26, 2010

    @Unger:
    Die Formel für die Standardabweichung (oder Varianz) ist ja eine Schätzung für die Standarbweichung (Varianz). Der Erwartungswert der Schätzung mit der Varianz mit n (statt 1-n) würde den wahren Wert der Varianz nicht treffen und zwar um (1-n)/n (was man Verzerrung oder Bias nennt). Klingt kompliziert, die Algebra, die dahinter steckt, ist einfach.

    Eine schöne Erklärung finde ich die geometrische. Die n Datenpunkte können als n Dimensionen eines Stichprobenraumes verstanden werden und die Addition der Werte als Vektor in diesem Stichprobenraum. Diese grosse Zahl an Dimensionen ist nicht gerade Informativ und man möchte deswegen die Anzahl reduzieren zu relevanten Dimensionen, den Parameterraum (das durch ein Model definiert ist). Im Fall des Mittelwertes wäre es 1 Parameter. Der Mittelwert wäre dann die Projektion des Stichprobenvektors auf die Parameterachse. Zurück bleiben noch n-1 Dimensionen, der “Fehlerraum”. Der Durchschnitt des Fehlerraums wäre also die Summe der einzelnen Projektionen auf die “Fehlerachsen” dividiert durch die Anzahl der Fehlerachsen n-1.
    (Es muss gelten Stichprobengrösse = Anzahl Parameter + “Anzahl Fehlerachsen”, das letztere nennt man auch Freiheitsgrade.)

  32. #32 Musikpsychologe
    November 19, 2011

    Vielen dank für den Artikel. Ich habe in meinem Blog in zwei Artikeln beschrieben, wie man t-Tests für abhängige und unabhängige Stichproben im statistikprogramm R umsetzt:

    für unabhängigen t-Test : https://www.musicians-on-stage.de/?p=396
    für abhängigen t-Test: https://www.musicians-on-stage.de/?p=612

    Herzliche Grüße und viel Spass und Erfolg mit der Statistik!