KI-Irrsinn Teil 5: Deloitte, die KI und der versemmelte Report in Australien

CopilotIn Australien hat die Wirtschaftsprüfungsgesellschaft Deloitte einen Bericht für Australiens Regierung verfasst, und dabei KI eingesetzt. Der Bericht strotzt nur so vor Fehlern, und Deloitte hat dem Auftraggeber 248.000 Euro erstattet. Jetzt kommt heraus, wieviel KI-Schund im Bericht enthalten war.

Admin-Passwörter schützen mit Windows LAPS. eBook jetzt herunterladen » (Anzeige)

Wer ist Deloitte?

Deloitte (Deloitte Touche Tohmatsu Limited) ist die umsatzstärkste Management- und Strategieberatung sowie Wirtschaftsprüfungsgesellschaft der Welt. Mit einem weltweiten Netzwerk von Tochtergesellschaften in mehr als 150 Ländern und über 460.000 Mitarbeitern erzielte Deloitte im Geschäftsjahr 2023/2024 einen Umsatz von 58,3 Milliarden Euro.

Der 250.000 Euro Fail in Australien

Ich hatte es zwar mitbekommen, aber nicht separat im Blog thematisiert. Aber ein Blog-Leser hat in diesem Kommentar ein Beitrag zum Thema "wenn AI wild dreht" hinterlassen. Deloitte hatte für das australische Department of Employment and Workplace Relations (DEWR) einen Bericht erstellt und dafür ein üppiges Honorar kassiert. Der Bericht behandelt ein IT-System zur Automatisierung von Sanktionen im Sozialsystem Australiens.

Das Medium Australian Financial Review deckte 22. August 2025 auf, dass dieser Bericht vor Fehlern strotzte, weil zahlreiche falsche bzw. nicht existente Quellen angegeben worden waren. Schnell kam der Verdacht, angeregt durch den Wissenschaftlers Chris Rudge von der Universität Sydney, auf, dass der Report durch KI erstellt worden war. Nachdem das Ganze öffentlich wurde, räumte Deloitte ein, dass "möglicherweise" KI für diese Fehler verantwortlich gewesen sei. Es wurde ein revidierter Bericht vorgelegt, aus dem zahlreiche Fußnoten und Quellenangaben entfernt worden waren.

Zudem hat Deloitte dem australischen Auftraggeber 440.000 australische Dollar (ca. 248.000 Euro) aus der Auftragssumme erstattet, wie das Medium Australian Financial Review Anfang Oktober 2025 meldete (Abo erforderlich). Der Standard geht in diesem Artikel ausführlich auf den Sachverhalt ein.

Das Ganze muss wohl Halluzination in Reinkultur gewesen sein, vorgelegt von einer angeblich renommierten Strategie- und Wirtschaftsprüfungsorganisation und gut bezahlt. Und ein wunderbarer Beleg für einen AI-Fail, wie wir den in Zukunft öfters sehen werden.

Neue Erkenntnisse zum AI-Fail

Zum 6. November 2025 hat Australian Financial Review nachgelegt (Abo erforderlich). Ich bin über nachfolgenden Post von Kevin Beaumont auf das Thema gestoßen.

Deloitte-Report für Australien

Die Botschaft des Artikels: Der von KI generierte Deloitte-Bericht war schlimmer als bisher angenommen. Dokumente, die die Medien unter Berufung auf das Informationsfreiheitsgesetz erhielten, zeigen, dass die Fehler in einem von der Bundesregierung in Auftrag gegebenen Deloitte-Bericht, der durch KI-Halluzinationen verfälscht war, weitaus gravierender waren als zuvor bekannt gegeben und Dutzende falscher Verweise enthielten.

Mitarbeiter des australische Ministeriums Department of Employment and Workplace Relations (DEWR) hätten 59 potenzielle Fehler in einer "Schnellüberprüfung" des Berichts identifiziert. Im neuen Artikel heißt es, dass ein Abteilungsleiter des Ministeriums frühzeitig an Deloitte schrieb und auf Verweise auf nicht existierende Dokumente und Gesetze sowie einen falsch benannten Richter hinwies. Dem Schreiben lag eine 16-seitigen Tabelle bei, in der die Ungereimtheiten zusammengefasst waren. Das Ministerium wartete aber weitere fünf Wochen, bis man den 440.000 Australische Dollar teuren Bericht von der Website entfernte. Das Ministerium erklärte zu diesem Zeitpunkt "es untersuche die Vorwürfe".

Die Dokumente, die dem Medium in die Hände fielen, belegen hektische Aktivitäten hinter den Kulissen zwischen dem Ministerium und Deloitte. Das Medium schreibt, dass am 27. August 2025, um 11:46 Uhr, also nur 15 Minuten nachdem die Financial Review die Behörde wegen eines gefälschten Zitats aus einem Robodebt-Fall kontaktiert hatte, ein stellvertretender Sekretär an Deloitte schrieb, dass "weiterhin Fragen zu dem Bericht und den falschen Zitaten gestellt werden".

Am selben Abend versicherte Deloitte dem Ministerium, dass es "den Bericht vollständig überprüfen und alle notwendigen Korrekturen vornehmen" werde. Ein Abgleich der Ursprungsfassung mit dem überarbeiteten Bericht vom 3. Oktober 2025 zeigt, dass bis auf wenige Ausnahmen alle 59 Verweise in der Tabelle entweder geändert, korrigiert oder entfernt wurden.

  • Es gab einen Verweis auf die Abschnitte "42UC–42UO" des  australischen Sozialversicherungsgesetzes von 1999, der laut Ministerium nicht existiere.
  • Es gab Verweise auf drei Fußnoten, die sich auf eine angebliche Rede von "Richterin Natalie Cujes Perry" mit dem Titel "Administrative Entscheidungsfindung im 21. Jahrhundert: Transparenz und Überprüfung" bezogen. Die Rede habe sich "nicht finden können", in den Zitaten gibt es mutmaßlich eine Verwechslung zwischen Richterin Perry und der Wissenschaftlerin Dr. Natalie Cujes.

Laut Australian Financial Review gab es zahlreiche Referenzen auf nicht auffindbare – und wohl nicht existente Regierungsdokumente. Das ist eigentlich ein Desaster, der für viel Geld erstellte Bericht enthält  in der Ursprungsfassung Dutzende unvollständiger oder falscher Zitate. Wenn dies die Arbeitserleichterung durch KI-generierte Zusammenfassungen und Analysen sein soll, dann gute Nacht. Und ich gewinne leider den Eindruck, dass genau das eintreten wird.

Ähnliche Artikel:
KI-Irrsinn Teil 1: Wenn ChaptGPT, Copilot & Co. dich zu Fake-Orten locken
KI-Irrsinn Teil 2: Amazon schickt Unterlassungserklärung an Perplexity AI für Einkäufe über Comet
KI-Irrsinn Teil 3: KI-generiere "Nichtigkeitsklage" vom Gericht abgewiesen
KI-Irrsinn Teil 4: Wenn die Anwender mal selber machen
KI-Irrsinn Teil 5: Deloitte, die KI und der versemmelte Report in Australien

Dieser Beitrag wurde unter AI, Allgemein abgelegt und mit , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

30 Antworten zu KI-Irrsinn Teil 5: Deloitte, die KI und der versemmelte Report in Australien

  1. Peter Vorstatt sagt:

    Die Artikelserie kommt mir irgendwie vor, als versuchte jemand das Strafrecht umzukrempeln und die Tatwerkzeuge zu Delinquenten zu machen; absurd!

    Es ist so einfach: A fool with a tool is still a fool. Die Beratungsbranche hat auch vor KI schon Bullshit geliefert, im Falle von (1) war sie mit einer Tabellenkalkulation überfordert. Auch der Wirecard-Skandal (2) war kein Ruhmesblatt für die Prüfer. Womöglich hätte eine KI da sogar schadensmindernd gewirkt.

    (1) https://www.spiegel.de/wirtschaft/mckinsey-blamiert-sich-a-9d13b97e-0002-0001-0000-000013498803
    (2) https://lutz-rae.de/wirecard-ey-schadensersatz.html

    • evotexte sagt:

      Hätte Hätte Fahrradkette. Hat es in diesem sehr konkreten Fall wie in dem von wirecard nicht, die KD. Die Künstliche Dummheit wird immer dumm weil abgeschrieben bleiben, weil sie nur Klicks und Geld zur eigenen Existenzberechtigung braucht. Verantwortung für tausende Sozialhilfeempfänger nach Kürzungen durch KD-Reports veranlasst? Gibts nicht. Bleiben wir mal bei den bitteren Tatsachen, nicht bei mutmaßlichen Errungenschaften durch KD.

      • Peter Vorstatt sagt:

        Betr. "Hat es in diesem sehr konkreten Fall wie in dem von wirecard nicht, … Die Künstliche … [Intelligenz] wird immer dumm weil abgeschrieben bleiben, weil sie nur Klicks und Geld zur eigenen Existenzberechtigung braucht.":

        Da schreibt wieder einer von seinem Häkeldeckchen-Tisch-PC, der den Kontakt zur Arbeitswelt verloren hat. Woher kommt dieses missgünstige Lamentieren und Bevormunden Anderer (1), die einfach ihre Arbeit erledigt haben wollen und sich der Werkzeuge ihrer Wahl bedienen? Es zwingt Dich niemand Deinen Wocheneinkaufszettel mit KI zu erstellen, also lass gut sein.

        Der Einwand "dumm weil abgeschrieben" ist völlig lebensfremd, weil wir in der Realität durch Erziehung, Schule, Universität, Beruf ständig von Anderen erworbenem Wissen vertrauen und in Zweifelsfällen dieses auch prüfen müssen. Abschreiben aus Literatur ('Papier ist geduldig') ist grundsätzlich genau so gut oder schlecht wie eine KI befragen. Papier ist im Falle kuratierter Verlagsinhalte graduell besser, abhängig von den Domänen (MINT vs. Sozialwissenschaften).

        In Deutschland hat sich die KI-Hatz mittlerweile zu einem 'den Standort kaputtreden' aufgeschaukelt. Die Deindustrialisierung reicht den Defätisten noch nicht.

        (1) https://klardenker.kpmg.de/kuenstliche-intelligenz-4-dinge-die-sich-in-der-wirtschaftspruefung-aendern/

        • Jaja sagt:

          Aus deinem Link:

          "… Drittens: Wirtschaftsprüfer:innen sollten Deepfakes erkennen können
          Natürlich setzen auch Kriminelle immer häufiger auf KI-Technologien. Deepfakes können zum Beispiel für gefälschte Nachrichten oder Videos genutzt werden, um betrügerische Transaktionen auszulösen. …"

          Und das sollen Wirtschaftsprüfer machen/können? Wenn ich solchen Schwachsinn lese, dann habe ich mehr bedenken bezüglich der Anwender, als der KI selber.

          Du arbeitest nicht zufällig in der Branche?

    • John sagt:

      Natürlich ist der dumme Mensch das Grundproblem. Aber mit KI hat man im übertragenen Sinne Massenvernichtungswaffen an streitende Pubertierende verteilt.

      Was auch wichtig ist: wie ist denn die Relation von positivem Output zu negativem? Bei nachgewiesen über 40% Fehlerrate? Bei produziertem Code der sogar verantwortungsvoll eingesetzt mehr Arbeit macht als spart?

      Und DAFÜR verbrennen wir gerade unseren Planeten (Energieverbrauch etc.)

      Ich finde die Einschätzung von Born realistisch und bin dankbar für die Sammlung!

    • Martin sagt:

      Volle Zustimmung meinerseits. Die Narren von heute sind die, die KI allzu blauäugig einsetzen.

      LLMs sind recht gut darin, Informationen in ihrem riesigen Datenbestand zu finden und zusammenzufassen. Aber sie neigen auch zum Halluzinieren, wie schon des öfteren berichtet. Deshalb ist es für die Arbeit mit KI Pflicht, die Fakten im Detail nachzuprüfen.
      Das Problem ist übrigens auch den Leuten bei OpenAI bekannt, siehe https://openai.com/index/why-language-models-hallucinate/
      Der entstehende Arbeitsaufwand ist dann halt gegen die Erstellung der Arbeitsergebnisse auf traditionellem Weg abzuwägen.

      Wenn die Anforderungen dann in Richtung "logisches Denken" gehen, werden die Ergebnisse noch schlechter. Leider vertrauen manche Leute blind der KI.

      Die angemessene Reaktion seitens des Umfeldes ist, Fehler der KI nicht als Entschuldigung zu akzeptieren. Im konkreten Fall wäre wegen erwiesener Inkompetenz zu überlegen, ob das Ministerium Deloitte überhaupt noch mit neuen Berichten beauftragen sollte. Deloitte könnte sich dann intern überlegen, inwiefern der Einsatz von KI im Unternehmen wirklich Sinn ergibt.

  2. Charlie sagt:

    Wie können sich Menschen nur so blind auf KI verlassen?
    Da wird ja offensichtlich gar nichts mehr überprüft.

    Und das ist erst der Anfang.

    • ThBock sagt:

      Das ist ja noch nicht alles. LLMs werden ja im Internet trainiert, und auch benutzt. Die halluzinieren sich jetzt schon gegenseitig die Taschen voll. Hurra! Geschichten aus'm Paulanergarten in Bits & Bytes. Das wird noch spannend werden. Die Frage ist nicht ob, sondern wann…

  3. janil sagt:

    Es ist eben insgesamt gesehen "unfertig" und sollte nicht auf die breite Öffentlichkeit losgelassen werden. Aber wir leben nun mal im Kapitalismus und da wird alles dem schnöden Mammon untergeordnet.
    Allen trotzdem einen schönen Sonntag.

  4. Compeff-Blog.cf2.de sagt:

    Der Deutschlandfunk-iT-Podcast über die parasitären KI-Botcrawler, Ignoriering von Traffic-Anstandsregeln, Ignorierung von robots.txt etc. Die Podcastfolge spricht auch das Thema an, das Günter schon vor einiger Zeit angesprochen hat – die Ausdünnung des Internets durch KI-Chatbots (stark sinkende menschliche Besucher auf Contentseiten):
    https://www.deutschlandfunk.de/stoerender-bot-trafic-wikipedia-unsichtbar-durch-ki-aws-stoerfall-100.html

    Imho wird das dazu führen, dass die KI zunehmend ihre eigene Grundlage (Jahrhunderte von menschlich geschriebenem Wissen oder Meinung) austrocknet. Wird das ggf. ein Intelligenzreset?

    • Luzifer sagt:

      Das ist der natürliche Werdegang einer jeden Hochkultur! Rise — Zenit — Fall
      Diese (westliche) Hochkultur hat Ihren Zenit längst überschritten, aber wie Jahunderte zuvor wird eine andere aufsteigen und deren Platz einnehmen.
      Das ist der Lauf der Zeit und der Mensch glaubt überheblich er könne daran irgendetwas beinflussen.

      Das sich KI Crawler nicht an an Regeln halten ist doch auch nix anderes als das was 99% der Website Betreiber auch machen: die haben bisher auch DNT ignoriert… kriegen jetzt also lediglich ihr eigenes Gift zu schlucken!

      Wer seine Privatsphäre und Daten schützen wollte ist schon lange auf Selbstverteidigung angewiesen…

      • Froschkönig sagt:

        Wer soll denn die nächste Zivilisatiosnkurltur sein? Ameisenkolonien?

        Denn falls du damit eher ach so überlegene Länder des fernen Ostens meinst, die setzen KI noch hemmungsloser ein und sind eher Teil des Problems.

        • R.S. sagt:

          Nö.
          Aber schau mal in die Vergangenheit, was mit ehemaligen Zivilisationen passiert ist.
          Und wenn uns das passiert, fallen wir auf den Stand des 19. Jahrhunderts zurück.
          In der Science Fiction Literatur gibt es jede Menge Bücher, die so etwas thematisieren.
          Beispielsweise Gesellschaft nutzt Hochtechnologie, aber keiner weiss, wie die funktioniert und deswegen kann keiner sie bei einem Defekt reparieren.
          Folge: Es fällt immer mehr Technologie aus und überleben tun nur die, die ein Leben wie in vorindustrieller Zeit leben.

      • Compeff-Blog.cf2.de sagt:

        Ich würde den Fall unserer Hochkultur nicht an AI festmachen. Aktuell erleben wir eher einen gesellschaftlichen Zerfall der konservativen, bildungsbürgerlichen demokratischen Mitte, die zwischen Meinungsdiktaten, Bürokratie und einem bequemen Machtapparat (viel Geld drucken hilft viel) zerrieben wird und teils schon recht desillusioniert ist, sofern noch nicht mental noch nicht gekündigt hat.
        Denken ist zuhause noch erlaubt, in der Öffentlichkeit eher weniger. KI sehe ich hier eher als Symptom der zunehmenden Hirnträgheit, nicht als Ursache … wer alle Latten am Zaun hat, kann KI durchaus konstruktiv nutzen, Quellenangaben prüfen oder sich Brainstorms erstellen lassen, anhand derer man dann mit eigener Geistes- und Wissenkraft in die Tiefe geht. Wenn ich 3 Forschungsarbeiten in eine KI reinjage und Sie um ein abgeleitetes Konzept bitte, kommt sicher mehr raus als wenn ich einen hatbot pauschal um ein 200seitigen Beratungsdokument bitte.

        Peter Lustig antwortete einst auf die Frage: "Macht Fernsehen dumm." mit einem schlauen Satz: "Die Dummen machts Dümmer, die Schlauen machts schlauer."

        In SocialMedia ist's ja genauso … man kann stundenlang Videos von gedankenfreien Zeitgenossen anschauen oder eben sich weiterbilden bzw sich in einem Hobbypassionsbereich auf dem Laufenden halten.

  5. Ein Blogleser sagt:

    Das schlimmste daran ist doch IMHO nicht, dass hier für 248000€ KI-Schund geliefert wurde und dass trotz hoch bezahlter wachsender Beamtenapparate von Ministerien und Behörden immer wieder externer Sachverstand zugekauft wird, sonder dass auf Grundlage solcher Berichte politische Entscheidungen gefällt und Meinungen gemacht werden.
    In diesem Fall ist es aufgefallen, aber wie oft wird so etwas unwidersprochen und ungeprüft durchgehen??
    Es ist doch eine Sache, wenn mir der Nachbar stolz erzählt, dass er sich jetzt im Streit mit einem Installateursunternehmen von Gemini „rechtssichere Briefe, die vor jedem Gericht standhalten würden" schreiben lässt und so glaubt den Anwalt sparen zu können, weil Gemini ihn berät.
    Oder wenn der Besitzer meiner (bisherigen) Dönerbude des Vertrauens kundtut, dass er den bei der letzten Begehung fehlenden Hygieneplan von ChatGPT in Sekunden hat schreiben lassen und der vom Gesundheitsamt genehmigt so wurde, aber erst nachdem er nach der ersten Einreichung nochmal den Namen auf sich anpassen musste.
    Aber wenn in der Politik -und das fängt schon ab der kommunalen Ebene an- auf Basis solcher Machwerke auf Basis von Scheinfakten anfängt Entscheidungen zu treffen, wird es kritisch!

  6. Luzifer sagt:

    *******************************************
    Aber wenn in der Politik -und das fängt schon ab der kommunalen Ebene an- auf Basis solcher Machwerke auf Basis von Scheinfakten anfängt Entscheidungen zu treffen, wird es kritisch!
    *******************************************
    Das ist doch auch schon viel zu spät angesetzt! Das Problem ist doch schon, das solche Posten mit Leuten besetzt werden die noch nicht mal die Kernkompetenz, geschweige den die Fachkompetenz dazu haben! Das dürfte schon gar nicht passieren. Die sind ja mangels Kompetenz nicht mal in der Lage richtige Entscheidungen zu treffen wenn sie korrekte Fakten haben.

    • Compeff-Blog.cf2.de sagt:

      Stimme zum Großteil zu. Zum Teil fehlt aber auch die technische Ausstattung sowie die Skills dafür. Bei unserer Steuerprüfung konnte der Notebook des Betriebsprüfers keine PDF-Dateien durchsuchen – es war nur der Acrobat Reader installiert. Zitat: "Der Chef genehemigt die Software nicht." Darauf ich: "Wie wär's mit dem kostenfreien DocFetcher (Opensource)?" …. 3 Wochen später mussten wir dann die gesuchten Belege selbst raussuchen und ausdrucken.

  7. Tom801 sagt:

    Es liegt aber auch vieles daran, dass mehr als die Hälfte nicht versteht, was KI ist. Sie kann weder selber denken, noch selber etwas erschaffen geschweige verstehen, was sie liefert. Sie wird mit Daten gefüttert und erkennt darin Schemen.
    Als Beispiel, ich füttere die KI mit seismischen Daten, sie bereitet mir diese hübsch auf. Komme ich aber auf die Idee sie zu Fragen, gebe mir eine Vorhersage aus, dann wird diese unweigerlich scheitern, da sie nicht versteht, was sie eigentlich ausspuckt noch ist sie fähig diese in irgend eine Relation zu stellen.
    Solange KI nicht selber Denken kann, kein Verständnis hat ist es nichts weiteres als ein Google v2.0

    • Steter Tropfen sagt:

      Zu welcher Hälfte zählst du dich? Oder macht die andere Hälfte den Fehler, die Bezeichnung „künstliche Intelligenz" so zu verstehen, wie der Wortsinn ist?
      „Intelligenz" ist doch gerade die Fähigkeit, verschiedene Informationen zu verknüpfen und daraus vorher unbekannte Schlussfolgerungen zu ziehen. So wie Sherlock Holmes, wenn er sagt „Kombiniere…"
      Daten in Grafik umwandeln ist noch nicht KI, sondern erstmal elementare Hardware-Arbeit, und sobald es die Grafikkarten (oder Nadeldrucker) unterstützten, konnte jede Tabellenkalkulation was hübsch aufbereiten. Eine bloße Datenkatalogisierung mit Muster-Erkennung ist dann ein Schritt weiter, aber schon seit Jahren z.B. in konventionellen Wettermodellen in Gebrauch, oder im Tracking zu Werbe- und Manipulationszwecken. Und da ist die Aufgabe eben jenes „gebe eine Vorhersage", und die wird geliefert.
      Aber der Clou von KI ist, dass sie durch immense Rechenleistung mit »Erkenntnis« aufwarten können und die Tragfähigkeit ihrer Thesen nochmal verifizieren müsste. Alles andere ist bloß ein überheblich etikettierter Ableger von Karl Klammer.

      • Ein Blogleser sagt:

        Ich meine, „Kombiniere…" ist Nick Knatterton und nicht Sherlock Holmes!? ;-)

      • R.S. sagt:

        Gerade das, Informationen verknüpfen und Schlußfolgerungen ziehen kann derzeit kein KI-Modell.
        Auch nicht Lösungen aus ähnlichen Aufgabenstellungen zu abstrahieren, neue Lösungswege finden, etc.
        All das kann KI nicht und damit ist es keine Intelligenz.
        KI und AI sind nur Buzzwords für LLMs, die im Wesentlichen Lösungen anhand von Wahrscheinlichkeiten, die sich aus ihrem Datenbestand ergeben, zu präsentieren.
        Und der Datenbestand ist wesentlich von menschlichen Eingriffen beeinflusst. Was den Betreibern nicht in den Kram passt, ist im Datenbestand nicht drin.
        Die aktuellen KI-Modelle sind daher alles andere als neutral.
        Und weil den Betreibern der KI-Modelle kein echtes Geschäftsfeld für den Kram einfällt, versuchen die, ihrem Kram möglichst überall reinzudrücken.

        • Jaja sagt:

          +1

          Dazu kommt noch, dass nicht geklärt ist, ob bzw. wieviel die Anbieter für die Quelldaten bezahlen müssen. Open AI macht zur Zeit 12 Milliarden Doller Verlust pro Quartal. Es ist mal wieder eine Wette auf eine Zukunftstechnologie, die noch nicht das geliefert hat, womit sie zur Zeit beworben wird. Man wird sehen…

    • xx sagt:

      Da hast du aber noch sehr wenig gespielt mit den Möglichkeiten der aktuellen Modelle.

      https://www.youtube.com/watch?v=P_fHJIYENdI

  8. Visitator sagt:

    Von einer Firma wie Deloitte würde ich nichts mehr für teuer Geld kaufen, wenn die Berichte die Qualität von Dr. Quacksalbers Wundertonikum auf dem Gauklermarkt haben, egal ob die künstliche oder menschliche Inkompetenz schuld ist.
    Da kann ich auch selbst die KI füttern und mir Blödsinn vorbeten lassen, alternativ vielleicht die Bildzeitung kaufen oder die richtige Pilze futtern und selbst was schreiben ;-)

  9. Froschkönig sagt:

    Datenbank mit Fällen, wo sich Juristen in aller Welt auf KI verlassen haben…

    https://www.damiencharlotin.com/hallucinations/

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros. Kommentare abseits des Themas bitte unter Diskussion. Kommentare, die gegen die Regeln verstoßen, werden rigoros gelöscht.

Du findest den Blog gut, hast aber Werbung geblockt? Du kannst diesen Blog auch durch eine Spende unterstützen.