相关内容
-
我整理发布的观点在Hacker News引发热烈讨论,这些高赞评论值得细品
我把以上的观点整理成稿并发布后,在Hacker News 上引发了热烈讨论。以下是几条高赞评论
-
英伟达和UIUC华人团队提出高效训练法,扩展LLM上下文长度至400万token
新智元报道 编辑:犀牛【新智元导读】来自英伟达和UIUC的华人团队提出一种高效训练方法,将LLM上下文长度从128K扩展至惊人的400万token SOTA纪录!基于Llama3
-
外网热议!开源AI神器PaperCoder可自动实现机器学习论文代码
一水 发自 凹非寺 量子位 | 公众号 QbitAI 又一开源AI神器在外网引起热议! 名为PaperCoder
-
苹果重组Siri工程团队:Vision Pro精锐空降,能否扭转AI颓势?
苹果Siri团队“大换血”,抽调Vision Pro技术骨干
-
强化学习成为AI研究新焦点:从快思考到慢思考的转变
“如果人工智能是一块蛋糕,那么无监督学习是蛋糕的主体,监督学习是糖霜,强化学习(RL)只是顶上的樱桃。
-
GPT-4.5在LM Arena排行榜中意外登顶:情商爆表的表现引发热议
在知名AI排行榜LM Arena中,曾全班垫底的GPT-4.5竟一度拿下第一?甚至在数学、编程等领域表现优异,这反常的表现让网友们一度质疑:大模型竞技场莫非被LLM操纵了?
-
DeepSeek如何通过颠覆性训练策略重构大型参数模型的成本公式?心智观察所与SemiAnalysis深度对话
文 观察者网心智观察所【DeepSeek如何以颠覆性训练策略重构大型参数模型的成本公式?1月底
-
DeepSeek团队最新力作CODEI/O获Ai2大牛推荐,代码提取LLM推理模式显著提升逻辑数学能力
DeepSeek团队最新力作一上线,就获得Ai2研究所大牛推荐,和DeepSeek铁粉们的热情研读!他们提出的CodeI/O全新方法,通过代码提取了LLM推理模式
-
DeepSeek团队最新力作CODEI/O获Ai2大牛推荐,代码提取LLM推理模式显著提升逻辑数学能力
DeepSeek团队最新力作一上线,就获得Ai2研究所大牛推荐,和DeepSeek铁粉们的热情研读!他们提出的CodeI/O全新方法,通过代码提取了LLM推理模式
-
OpenThinker-32B推理模型发布:仅用1/8数据与DeepSeek-R1打成平手,性能碾压李飞飞团队s1和s
32B推理模型,仅用1/8数据,与同尺寸DeepSeek-R1打成平手!就在刚刚