About 50 results
Open links in new tab
  1. 机器学习中Inference 和predict的区别是什么? - 知乎

    Inference: You want to understand how ozone levels are influenced by temperature, solar radiation, and wind. Since you assume that the residuals are normally distributed, you use a linear regression model.

  2. 为什么 2024 年以后 MMDiT 模块成为了大规模文生视频或者文生图片 …

    也可能是我的偏见。但是似乎SD3 paper发表以后很多开源工作/技术报告都不约而同的使用了这个架构,抛弃了…

  3. 机器学习中Inference 和predict的区别是什么? - 知乎

    Inference in deep learning: More specifically, the trained neural network is put to work out in the digital world using what it has learned — to recognize images, spoken words, a blood disease, predict the …

  4. 什么是「推理」 (Reasoning)? - 知乎

    在哲学逻辑学、心理学、认知科学、(通用)人工智能等领域,如何对推理进行定义?Reasoning和Inference有…

  5. 如何看待DeepSeek发布的新模型DeepSeek-Math-V2? - 知乎

    论文中最heavy的模式(能拿金牌的模式)是64证明——64* 64验证——16迭代,假设每一步是10k token,这样一道题就要消耗大约10亿 的inference token,在DSA下成本大概是一千多块钱。 如果不 …

  6. LLM的pad策略,为啥训练时是right,预测是left? - 知乎

    Dec 10, 2024 · 上面这俩在训练时是等效的。 关键还是 padding 方向和 ignore_label 的设置方式要匹配。 position_ids 的影响也不大,目前像 Hugging Face 这种库可以自行处理。如下例中是 batch size 为 2 …

  7. PyTorch如何量化模型(int8)并使用GPU(训练/Inference)?

    或者是否可以通过将PyTorch模型转化成TensorRT进行int8的GPU Inference?

  8. 大模型推理加速——Fastest Speculative Decoding in vLLM with Arctic …

    Arctic Inference是一个开源库,集成了Snowflake AI Research开发的当前和未来的LLM推理优化。 它利用vLLM的自定义插件功能与vLLM v0.8.4集成,用户安装后,Arctic Inference会自动为vLLM添加本 …

  9. 如何看待Qwen推出的新Scaling Law ——Parallel Scaling? - 知乎

    代码: GitHub - QwenLM/ParScale: Parallel Scaling Law for Language Model — Beyond Parameter and Inference Time Scaling 我们都知道,除了拓展数据量以外,现在有两条主流的 scaling 路线来增强拉 …

  10. 请解释下variational inference? - 知乎

    进一步地,operator variational inference (OPVI) [19] 则重新审视了这个优化目标的设计问题,提出了一个更加general的框架,把KL纳入其中。 总的来说,相比前两类问题,这个问题的工作较少,毕竟我 …