Skip to content

ディープテック経済

市場が追いついたら、もう遅い。

Menu
  • Entertainment
  • お問い合わせ
  • アカウント
  • パスワードのリセット
  • プロファイル
  • ログイン
  • 一つ一つ
  • 登録
Menu

Sora文献、クイックアクセス

Posted on 2024年3月4日2024年3月28日 by DeepRecommend

LSTM, Recurrent Neural Network, Diffusion Model, Transoformerなどおなじみのモデルが羅列されてる中で、空間と時間の有用な表現を抽出するのための「世界モデル」というのがあるのが面白い。

Unsupervised Learning of Video Representations using LSTMs
https://arxiv.org/pdf/1502.04681.pdf

RECURRENT ENVIRONMENT SIMULATORS
https://arxiv.org/pdf/1704.02254.pdf

World Models
https://arxiv.org/pdf/1803.10122.pdf

Generating Videos with Scene Dynamics
https://arxiv.org/abs/1609.02612

Mocogan: Decomposing motion and content for video generation
https://arxiv.org/abs/1707.04993

Adversarial video generation on complex datasets.
https://arxiv.org/abs/1907.06571

Generating long videos of dynamic scenes.
https://arxiv.org/abs/2206.03429

Nüwa: Visual synthesis pre-training for neural visual world creation.
https://arxiv.org/abs/2111.12417

Imagen video: High definition video generation with diffusion models.
https://arxiv.org/abs/2210.02303

Align your latents: High-resolution video synthesis with latent diffusion models.
https://arxiv.org/abs/2304.08818

Photorealistic video generation with diffusion models.
https://arxiv.org/abs/2312.06662

Attention is all you need.
https://arxiv.org/abs/1706.03762

Language models are few-shot learners.
https://arxiv.org/abs/2005.14165

An image is worth 16×16 words: Transformers for image recognition at scale.
https://arxiv.org/abs/2010.11929

Vivit: A video vision transformer.
https://arxiv.org/abs/2103.15691

Masked autoencoders are scalable vision learners.
https://arxiv.org/abs/2111.06377

Patch n’Pack: NaViT
https://arxiv.org/abs/2307.06304

High-resolution image synthesis with latent diffusion models.
https://arxiv.org/abs/2112.10752

Auto-encoding variational bayes.
https://arxiv.org/abs/1312.6114

Deep unsupervised learning using nonequilibrium thermodynamics.
https://arxiv.org/abs/1503.03585

Denoising diffusion probabilistic models.
https://arxiv.org/abs/2006.11239

Improved denoising diffusion probabilistic models.
https://arxiv.org/abs/2102.09672

Diffusion Models Beat GANs on Image Synthesis.
https://arxiv.org/abs/2105.05233

Elucidating the design space of diffusion-based generative models.
https://arxiv.org/abs/2206.00364

Scalable diffusion models with transformers.
https://arxiv.org/abs/2212.09748

Generative pretraining from pixels.
https://cdn.openai.com/papers/Generative_Pretraining_from_Pixels_V2.pdf

Zero-shot text-to-image generation.
https://arxiv.org/abs/2102.12092

Scaling autoregressive models for content-rich text-to-image generation.
https://arxiv.org/abs/2206.10789

Improving image generation with better captions.
https://arxiv.org/abs/2006.11807

Hierarchical text-conditional image generation with clip latents.
https://arxiv.org/abs/2204.06125

Sdedit: Guided image synthesis and editing with stochastic differential equations.
https://arxiv.org/abs/2108.01073

コメントを残す コメントをキャンセル

メールアドレスが公開されることはありません。 ※ が付いている欄は必須項目です

カテゴリー

  • Business (39)
    • Consulting (8)
    • Finance (6)
    • Sales_Marketing (6)
  • Human Resources (4)
  • Marketing (38)
    • Design (8)
    • Music (15)
    • Video (2)
  • News (32)
  • Operation (3)
  • Q&A (5)
  • Technology (205)
    • AI (101)
    • Brain (49)
    • Quantum (21)
  • Value (159)
  • アーカイブ (4,163)

アーカイブ

  • 2025年12月 (1)
  • 2025年11月 (1)
  • 2025年10月 (2)
  • 2025年9月 (1)
  • 2025年7月 (1)
  • 2025年6月 (3)
  • 2025年5月 (3)
  • 2025年4月 (1)
  • 2025年3月 (2)
  • 2024年12月 (4)
  • 2024年11月 (5)
  • 2024年10月 (2)
  • 2024年8月 (1)
  • 2024年7月 (3)
  • 2024年6月 (35)
  • 2024年5月 (98)
  • 2024年4月 (16)
  • 2024年3月 (9)
  • 2024年2月 (3)
  • 2023年10月 (1)
  • 2023年9月 (13)
  • 2023年8月 (10)
  • 2023年7月 (77)
  • 2023年6月 (23)
  • 2023年5月 (7)
  • 2023年4月 (26)
  • 2023年3月 (22)
  • 2023年2月 (21)
  • 2023年1月 (53)
  • 2022年12月 (17)
  • 2022年11月 (1)
© 2025 ディープテック経済 | Powered by Minimalist Blog WordPress Theme