About 18,100,000 results
Open links in new tab
  1. 机器学习中Inference 和predict的区别是什么? - 知乎

    Inference: You want to understand how ozone levels are influenced by temperature, solar radiation, and wind. Since you assume that the residuals are normally distributed, you use a …

  2. 为什么 2024 年以后 MMDiT 模块成为了大规模文生视频或者文生 …

    也可能是我的偏见。但是似乎SD3 paper发表以后很多开源工作/技术报告都不约而同的使用了这个架构,抛弃了…

  3. 什么是「推理」 (Reasoning)? - 知乎

    在哲学逻辑学、心理学、认知科学、(通用)人工智能等领域,如何对推理进行定义?Reasoning和Inference有…

  4. LLM的pad策略,为啥训练时是right,预测是left? - 知乎

    Dec 10, 2024 · 上面这俩在训练时是等效的。 关键还是 padding 方向和 ignore_label 的设置方式要匹配。 position_ids 的影响也不大,目前像 Hugging Face 这种库可以自行处理。如下例中是 …

  5. PyTorch如何量化模型(int8)并使用GPU(训练/Inference)?

    或者是否可以通过将PyTorch模型转化成TensorRT进行int8的GPU Inference?

  6. 因果推断综述解析|A Survey on Causal Inference (1) - 知乎

    二、正文解析 摘要 首先文章说明了因果推断的重要性,ZZ不再赘述。然后介绍了一下本文的主要内容和贡献: 在本研究中,作者提供了关于“潜在结果框架”的完备介绍,那么这个“潜在结果 …

  7. 如何看待尤洋对 DeepSeek 成本文章的回应以及开团硅基流动?

    20250301 DeepSeek:DeepSeek-V3 / R1 推理系统概览尤洋:关于DeepSeek MaaS成本尤洋:坑人的硅基流动随…

  8. 大模型推理加速——Fastest Speculative Decoding in vLLM with …

    Arctic Inference是一个开源库,集成了Snowflake AI Research开发的当前和未来的LLM推理优化。 它利用vLLM的自定义插件功能与vLLM v0.8.4集成,用户安装后,Arctic Inference会自动 …

  9. 天才研究牲 的想法: KLASS新思路:加速掩码扩散模型推理 | 论文标 …

    KLASS新思路:加速掩码扩散模型推理 | 📚 论文标题:KLASS: KL-Guided Fast Inference in Masked Diffusion Models 🔑 关键词:Masked diffusion models, iterative refinement, KL-Adaptive Stability …

  10. 大模型实践——modelscope语音识别

    from modelscope.pipelines import pipeline from modelscope.utils.constant import Tasks from itn.chinese.inverse_normalizer import InverseNormalizer inference_pipeline ...