Kategorie: Große Sprachmodelle
- Weiß KI, wann sie "denken" soll? Thinkless bringt großen Sprachmodellen bei, wann sie nachdenken müssen
- ICML 2025 | Trainingsfreie, sofortige Ausrichtung großer Modellpräferenzen
- Google | Fehlersuche in RAG-Systemen: Ein Framework zur selektiven Generierung zur Steigerung der RAG-Genauigkeit um 10%
- Multimodale große Modelle versagen kollektiv, GPT-4o nur 50% Sicherheitspassrate: SIUO enthüllt Blindstellen in der plattformübergreifenden Sicherheit
- Nature-Tochterzeitschrift: Menschen haben wieder gegen KI verloren, besonders wenn sie weiß, wer Sie sind
- Welches Modell sollte ein zuverlässiger Agent verwenden? Das Phänomen "Lost in Conversation" in Multi-Turn-Dialogen von LLMs | Microsoft Neuestes
- Wenn Denken zur Last wird: Enthüllung der "Denkfallen" großer Sprachmodelle
- Wie stark ist die Denkfähigkeit großer Sprachmodelle? Eine Studie enthüllt die Grenzen und das Potenzial von LLMs
- Durchbruch beim Reasoning: Wie SoftCoT++ LLMs ermöglicht, 'mehrere Wege zu denken'?
- Qwen-Durchbruch: Verwendung von "Paralleler Verarbeitung" statt "Stapeln von Parametern", neue Methode reduziert Speicher um das 22-fache, Latenz um das 6-fache
- LLM enthüllt tödlichen Fehler: Sie können einfach keine Uhren lesen! Doktor verblüfft, Genauigkeit unter 50%
- ZeroSearch: <Alibaba-Technologie> Große Sprachmodelle Lernen durch Selbstbelohnung Ohne Browser
- Jeff Dean: KI wird Junior-Ingenieure innerhalb eines Jahres ersetzen, Netznutzer: "Altman redet nur, was Jeff sagt, ist tödlich"
- AM-Thinking-v1: Die Grenze der Schlussfolgerung im 32B-Maßstab vorantreiben
- Ant Group Wu Wei: Eine große Vermutung über das Paradigma des 'Argumentations'-Modells der nächsten Generation
- Von der Intuition zum „tiefen Denken“: Multidimensionale Entwicklung der Schlussfolgerungsfähigkeit großer Modelle
- DeepSeek-Genauigkeit und -Effizienz verdoppelt, Huawei & IE CAS schlagen "Early Exit"-Mechanismus für Gedankenkette vor