• aaaaaaaaargh@feddit.org
      link
      fedilink
      Deutsch
      arrow-up
      6
      arrow-down
      2
      ·
      2 months ago

      Eigentlich ist genau das so ziemlich das einzige, worin LLMs gut sind. Und so ganz ohne Infos über die Architektur dahinter kann man darüber aus meiner Sicht kein definites Urteil fällen.

      • Saleh@feddit.org
        link
        fedilink
        Deutsch
        arrow-up
        4
        ·
        2 months ago

        Ich meine LLMs sind ziemlich unfähig, um Zitate, Sarkasmus und andere Formen zu erkennen, die Kontext brauchen.

        Zum Filtern mag das geeignet sein, je nach Situation und Präferenz der Person. Wenn es darum geht, Prozesse gegen die mutmaßlichen Täter zu führen, wird wohl nichts daran vorbeigehen, dass klassisch von Menschen Kommentar für Kommentar auswerten zu lassen.

        • aaaaaaaaargh@feddit.org
          link
          fedilink
          Deutsch
          arrow-up
          3
          arrow-down
          1
          ·
          edit-2
          2 months ago

          Doch doch, das wird durchaus auch möglich sein, aber anders: Das Filtern darf nicht basierend auf den im Modell eingebetteten Informationen erfolgen, weil die möglicherweise zu Halluzinationen führen. Aber es gibt ja mittlerweile auch Wege, die Quellen sichtbar zu halten. Damit ginge das jedenfalls technisch auf jeden Fall.

          LLMs sind ziemlich gut im Erschließen von Kontext, man muss eben einen Weg finden, ihnen diesen in endlicher Menge geschlossen zu geben.

          EDIT: Ironie, während ich diesen Text über intelligente Modelle schrieb, war mein Handy pausenlos damit beschäftigt, Worte nachträglich zu verdrehen, entfernen und Substantive kleinzuschreiben.