Skip Navigation

InitialsDiceBearhttps://github.com/dicebear/dicebearhttps://creativecommons.org/publicdomain/zero/1.0/„Initials” (https://github.com/dicebear/dicebear) by „DiceBear”, licensed under „CC0 1.0” (https://creativecommons.org/publicdomain/zero/1.0/)L
Posts
1
Comments
1172
Joined
1 yr. ago

  • Oida, gleich zum Permaban greifen? Wer hat denn dir in den Kaffee gepisst

  • LOL

    Jump
  • As the internet content used to train LLMs contains more and more (recent) LLM output, the output quality feeds back into the training and impacts further quality down the line, since the model itself can't judge quality.

    Let's do some math. There's a proper term for this math and some proper formula, but I wanna show how we get there.

    To simplify the stochastic complexity, suppose an LLM's input (training material) and output quality can be modeled as a ratio of garbage. We'll assume that each iteration retrains the whole model on the output of the previous one, just to speed up the feedback effect, and that the randomisation produces some constant rate of quality deviation for each part of the input, that is: some portion of the good input produces bad output, while some portion of the bad input randomly generates good output.

    For some arbitrary starting point, let's define that the rate is equal for both parts of the input, that this rate is 5% and that the initial quality is 100%. We can change these variables later, but we gotta start somewhere.

    The first iteration, fed with 100% good input will produce 5% bad output and 95% good.

    The second iteration produces 0.25% good output from the bad part of the input and 4.75% bad output from the good input, adding up to a net quality loss of 4.5 percentage points, that is: 9.5% bad and 90.5% good.

    The third iteration has a net quality change of -4.05pp (86.45% good), the fourth -3.645pp (82.805%) and you can see that, while the quality loss is slowing down, it's staying negative. More specifically, rhe rate of change for each step is 0.9 times the previous one, and a positive number times a negative one will stay negative.

    The point at which the two would even out, under the assumption of equal deviation on both sides, is at 50% quality: both parts will produce the same total deviation and cancel out. It won't actually reach that equilibrium, since the rate of decay will slow down the closer it gets, but if "close enough" works for LLMs, it'll do for us here.

    Changing the initial quality won't change this much: A starting quality of 80% would get us steps of -3pp, -2.7pp, -2.43pp, the pattern is the same. The rate of change also won't change the trend, just slow it down or accelerate it. The perfect LLM that would perfectly replicate its input would still just maintain the initial quality.

    So the one thing we could change mathemstically is the balance of deviation somehow, like reviewing the bad output and improving it before feeding it back. What would that do?

    It would shift the resulting quality. At a rate of 10% deviation for bad input vs 5% for good input, the first step would still be -5pp, but the second would be 10%×5% - 5%×95% -4.25pp instead of -4.5pp, and the equilibrium would be at 66% quality instead. Put simply, if g is the rate of change towards good and b the rate towards bad, the result is an average quality of g÷(g+b).

    Of course, the assumptions we made initially don't entirely hold up to reality. For one, models probably aren't entirely retrained so the impact of sloppy feedback will be muted. Additionally, they're not just getting their output back, so the quality won't line up exactly. Rather, it'll be a mishmash of the output of other models and actual human content.

    On one hand, that means that high-quality contributions by humans can compensate somewhat. On the other hand, you'd need a lot of high-quality human contributions to stem the tide of slop, and low-quality human content isn't helping. And I'm not sure the chance of accidentally getting something right despite poor training data is higher than that of missing some piece of semantic context humans don't understand and bullshitting up some nonsense. Finally, the more humans rely on AI, the less high-quality content they themselves will put out.

    Essentially, the quality of GenAI content trained on the internet is probably going to ensloppify itself until it approaches some more or less stable level of shit. Human intervention can raise that level, advances in technology might shift things too, and maybe at some point, that level might approximate human quality.

    That still won't make it smarter than humans, just faster. It won't make it more reliable for randomly generating "researching" facts, just more efficient in producing mistakes. And the most tragic irony of all?

    The more people piss in the pool of training data, the more piss they'll feed their machines.

  • never

    Sorry, I'm confused. Weren't we talking about human language here, or are you using "never" figuratively?

    (The quotation marks here are referring to acual quotation of the word you used, not a standard feature of the way the word is normally written or an indicator of some alternate meaning. I'm spelling this out because just in case you're unaware of that usage of quotation marks, which frequently occurs in the context of quoting someone. Unless you're literally asserting that the word "slept" is never quoted, "never" is a strong word to use.)

  • Zufallsgeneratoren haben nichts in der Politik verloren. Politiker, die sie in der Politik einsetzen oder einsetzen wollen auch nicht. Unzuverlässigkeit können auch Menschen wunderbar, aber die kann man immer noch besser zur Verantwortung ziehen. Sollte man auch mehr, aber das ist ein anderes Thema.

  • Meine Frau und ich waren fast zehn Jahre zusammen bevor wir geheiratet haben. Das war schön, das offiziell zu machen (auch wegen der rechtlichen Sicherheiten usw.), und die Feier war toll, hat aber nicht mehr viel an der Beziehung geändert.

    Da war das Zusammenziehen doch deutlich einflussreicher, wenn auch nicht nur im Guten. Die Schwierigkeiten waren hauptsächlich, dass wir beide gerade mal 21 waren und nicht wirklich fest im Leben standen. Ich würde mal annehmen (hoffen?), dass einige dieser Probleme im Alter wegfallen.

  • Moderationsfrage: gehören solche Link-Verschleierungen verboten? In diesem speziellen Fall find ich das gerechtfertigt, weil es das Zwiebelessen tückischer macht und das ja der Sinn der Parodie ist, aber sonst ist das ja potenziell ein Sicherheitsrisiko, vom Tracking mal abgesehen.

    Vielleicht würde auch ein Bot reichen, der den Redirect auflöst und den ursprünglichen Link kommentiert, und dann würde das halt fallweise gelöst wenn das mal tatsächlich bösartig sein sollte. Würde nebenher vielleicht auch das Tracking kontern (und wer seine Views unbedingt gezählt haben will kann ja immernoch auf den Original-Link klicken).

  • Kapitalertragssteuer ist dafür ein bürokratisches Puzzle und Vermögensteuer wäre blanker Diebstahl. Haben sie sich schließlich hart erbeutet erarbeitet, den Reichtum.

  • Ich hasse den Vorschlag aber liebe deinen Schreibstil. Deine Satire hat mich erfolgreich geärgert und das ist ein herzliches Lob.

  • Wäre eher ein Segen wenn es da ein paar mehr gäbe...

    Wobei Busfahren müssen aktuell schon eine Strafe ist.

    (Oder gilt das nur bei mir in der Gegend?)

  • Powershell Zuhausis: PS ist viel besser als CMD!!

    Ich: Installiert auf dem Arbeitsschoßoberseite (Fenster 11) bash, damit ich nicht zwei Konsolen lernen muss.

  • Au, da hab ich manchmal gewohnt. Spaßig.

    Bin mal gespannt was heute auf dem Programm steht. Vielleicht mal wieder ewig vorm Hbf stehen, dann spontan die Info dass wir heute oben einfahren (die Anschlüsse natürlich alle unten). Das letzte Mal is ne Weile her.

  • Dieser Mann ist aus von Strg

  • Son, I just want to open the blinds in your room, why don't you put away your Legos so I don't step on the landmines and we can all go downstairs?

    ed. note: "Klemmbausteine" is chosen as a generic, brand-independent term, but I don't know the English equivalent

  • Zum Schutz der Tabakpflanzen, bitte nicht rauchen.

  • Taubenschach

    Geil, die Bezeichnung hab ich noch nie gesehen. Ich kenn den Spruch dazu, aber so abgekürzt ist mir das neu. Wird herzlichst dankend kopiert.

  • Das tägliche Roulette: Wo stehen wir heute?

  • Klingt so kleinkariert, dass es wahrscheinlich richtig ist. Außerhalb dürfen sie das vielleicht auch nicht. Hätte ich persönlich trotzdem getan, aber nachher kommt so ein Alman und zeigt dich noch an "Das Schild hat hier nichts zu suchen!" Wenn das oft genug passiert will der Chef nicht mehr mit der Rechtsabteilung diskutieren ob das Schild da Sinn macht und trotzdem verboten ist und lässt es gleich.

    Ich hätte auch bei dem Schildern aufm Betriebsgelände schon graphische Darstellungen diesbezüglich angehängt, aber das zu entwerfen wäre ja womöglich etwas Aufwand und die ganze Kraft ist schon draufgegangen, überhaupt einen Ort für den SEV zu verhandeln. Kann mir nicht denken, dass das mit dem Ordnungsamt oder wem auch immer weniger zum Haareausreißen ist.

  • Ist ihr Job, ohne Erklärung Leute auszuziehen und Genitalien zu begrabschen? Dann sollten sie den Job verweigern. Wer entwürdigende Anweisungen bekommt, sollte sich widersetzen — vor allem, wenn sie die Aufgabe haben, die Menschenwürde zu schützen.

    Ob das jetzt Befehl oder eigene Willkür war ist sekundär. Fakt ist, dass sie Menschen erniedrigt haben. Sich im Gegenzug "Bulle" gefallen zu lassen ist noch die harmloseste Bezeichnung die ich gerechtfertigt fände.

  • Normalise it while they're young, so they fight it less when they grow up