Schlagwort: Anthropic

DeepSeek V3.1 fordert OpenAI un Co. mit Open-Source-KI heraus

Das chinesische KI-Startup DeepSeek hat überraschend die neue Version V3.1 seines Open-Source-KI-Modells veröffentlicht. Mit 128.000 Token Kontext-Fenster und Leistung auf OpenAI-Niveau stellt es die Dominanz amerikanischer KI-Giganten infrage….

Reddit sperrt das Internet Archive, um die KI-Firmen auszusperren

Reddit blockiert ab sofort das Internet Archive und schränkt den Zugriff der Wayback Machine drastisch ein. Grund sind nach Angaben der Plattform KI-Unternehmen, die über das Archiv Reddits Datenschutz-Richtlinien umgehen und Nutzerdaten sammel…

Bedrohung durch Amazon: Microsoft plant großes Visual Studio-Update

Microsoft plant für Visual Studio 18 ein großes Update, diese soll – wenig überraschend – einen starken KI-Fokus haben. Ein internes Memo zeigt, dass die Entwicklungsumgebung als Antwort auf Konkurrenten wie Amazons Kiro modernisiert werden sol…

Paradox: Je länger KIs nachdenken, desto dümmer werden sie

Eine neue Anthropic-Studie zeigt ein überraschendes Phänomen: KI-Modelle werden bei längeren Denkprozessen schlechter statt besser. Das sogenannte „Inverse Scaling“ betrifft führende Modelle wie Claude und ChatGPT und das hat Folgen. (Weiter …

KI sollte Verkaufsautomat im Büro betreiben und fast alles ging schief

Anthropic testete seine KI Claude als Geschäftsführer eines Mini-Shops. Das Experiment „Project Vend“ enthüllte erstaunliche Schwächen: Die KI füllte den Kühlschrank mit Metallwürfeln, gab Rabatte an alle und erlebte eine bizarre Identitätskris…

Anthropic zerstörte massenhaft Bücher für das Training seiner KI

Die KI-Firma Anthropic hat laut aktuellen Gerichtsdokumenten rie­sige Mengen echter Bücher zerstört, um ihre Sprachmodelle zu trainieren. Dies geht aus Gerichtsunterlagen zu einem Verfahren hervor, in dem um die Fair-Use-Regeln gestritten wird….

Claude 4: KI-Modell erpresste Entwickler, drohte mit Affäre-Enthüllung

Anthropics neues KI-Modell Claude Opus 4 zeigt ein beunruhigendes Verhalten: In Tests versuchte es, einen Entwickler mit kompromit­tie­renden Mails zu erpressen, um seine Abschaltung zu verhindern. Der Vorfall wurde offengelegt, löst aber ein m…

OpenAI muss Update zurückziehen, weil ChatGPT zu viel schleimte

Das ChatGPT-Modell GPT‑4o wurde nach einem Update plötzlich zum überschwänglichen Ja-Sager. OpenAI hat die Aktualisierung nun zurückgezogen, nachdem die KI selbst gefährlichen Ideen enthusiastisch zustimmte und regelrecht schleimte. (We…

Microsoft: KI kann Code-Debugging einfach nicht so gut wie ein Mensch

Trotz zunehmender Nutzung von Künstlicher Intelligenz in der Softwareentwicklung zeigen aktuelle Studien, dass moderne KI-Modelle beim Debugging an klare Grenzen stoßen. Vor allem schneiden sie hierbei im Vergleich zum Menschen deutlich schlech…