何に使わらているかまで、実装イメージを持っていただければ幸いです。
機械学習
教師あり学習 (Supervised Learning)
回帰 (Regression)
・線形回帰 (Linear Regression)
・多項式回帰 (Polynomial Regression)
・リッジ回帰 (Ridge Regression)
・ラッソ回帰 (Lasso Regression)
・ElasticNet回帰 (ElasticNet Regression)
分類 (Classification)
教師なし学習 (Unsupervised Learning)
クラスタリング (Clustering)
・k-平均法 (k-Means)
・階層的クラスタリング (Hierarchical Clustering)
・DBSCAN
・Gaussian Mixture Models (GMM)
次元削減 (Dimensionality Reduction)
・主成分分析 (Principal Component Analysis, PCA)
・t-SNE (t-Distributed Stochastic Neighbor Embedding)
・UMAP (Uniform Manifold Approximation and Projection)
・自己組織化マップ (Self-Organizing Maps, SOM)
異常検知 (Anomaly Detection)
・One-Class SVM
・Isolation Forest
・Local Outlier Factor (LOF)
強化学習 (Reinforcement Learning)
・Q学習 (Q-Learning)
・SARSA (State-Action-Reward-State-Action)
・Deep Q-Network (DQN)
・Policy Gradients
・Actor-Critic Methods
・Proximal Policy Optimization (PPO)
・SLAM
ニューラルネットワークとディープラーニング (Neural Networks and Deep Learning)
・フィードフォワードニューラルネットワーク (Feedforward Neural Networks)
・畳み込みニューラルネットワーク (Convolutional Neural Networks, CNN)
・リカレントニューラルネットワーク (Recurrent Neural Networks, RNN)
・長短期記憶 (Long Short-Term Memory, LSTM)
・ゲート付きリカレントユニット (Gated Recurrent Units, GRU)
・オートエンコーダー (Autoencoders)
・変分オートエンコーダー (Variational Autoencoders, VAE)
・敵対的生成ネットワーク (Generative Adversarial Networks, GAN)
・転移学習 (Transfer Learning)
・注意機構 (Attention Mechanisms)
・Transformerアーキテクチャ
生成モデル
敵対的生成ネットワーク (Generative Adversarial Networks, GANs)
- バニラGAN (Vanilla GAN)
- DCGAN (Deep Convolutional GAN)
- WGAN (Wasserstein GAN)
- WGAN-GP (Wasserstein GAN with Gradient Penalty)
- LSGAN (Least Squares GAN)
- InfoGAN (Information Maximizing GAN)
- BiGAN (Bidirectional GAN)
- CycleGAN
- Pix2Pix
- StarGAN
- StyleGAN
- BigBiGAN
変分オートエンコーダー (Variational Autoencoders, VAEs)
- バニラVAE (Vanilla VAE)
- 条件付きVAE (Conditional VAE)
- β-VAE (Beta-VAE)
- VQ-VAE (Vector Quantized VAE)
- VQ-VAE-2
- NVAE (Neural Variational Autoencoder)
オートレグレッシブモデル (Autoregressive Models)
- PixelRNN
- PixelCNN
- PixelCNN++
- WaveNet
- MADE (Masked Autoencoder for Distribution Estimation)
- BERT (Bidirectional Encoder Representations from Transformers)
- GPT (Generative Pre-training Transformer)
- GPT-2
- GPT-3
- Transformer-XL
- XLNet
フロー・ベース生成モデル (Flow-based Generative Models)
- NICE (Non-linear Independent Components Estimation)
- RealNVP (Real-valued Non-Volume Preserving)
- Glow
- FFJORD (Free-form Jacobian of Reversible Dynamics)
- FloWaveNet
- WaveGlow
エネルギー・ベース生成モデル (Energy-based Generative Models)
- RBM (Restricted Boltzmann Machine)
- DBN (Deep Belief Network)
- NADE (Neural Autoregressive Distribution Estimator)
- EBGAN (Energy-Based GAN)
- CoopNets (Cooperative Neural Networks)
拡散モデル (Diffusion Models)
- DDPM (Denoising Diffusion Probabilistic Models)
- DDIM (Denoising Diffusion Implicit Models)
- LDM (Latent Diffusion Models)
- Guided-TDM (Guided Text-to-Image Diffusion Models)
- Stable Diffusion
ハイブリッドモデル (Hybrid Models)
- VAEGAN (VAE + GAN)
- CVAE-GAN (Conditional VAE + GAN)
- ALICE (Adversarially Learned Inference + Conditional Entropy)
- BIVA (Bidirectional Variational Autoencoder)
ニューロモルフィックコンピューティング
人工ニューラルネットワーク
スパイキングニューラルネットワーク
BCI
侵襲BCI
非侵襲BCI
ツール
PyTorch
・PyTorchをインポートし、バージョンを確認してください。
・PyTorchを使って、ゼロで初期化された5×3のテンソルを作成してください。
・PyTorchを使って、ランダムな値で初期化された4×4のテンソルを作成してください。
・PyTorchを使って、1から10までの整数を要素とする1次元テンソルを作成してください。
・2つのテンソルの要素ごとの和を計算してください。
・2つのテンソルの要素ごとの積を計算してください。
・テンソルの転置を計算してください。
・テンソルの形状を変更してください。
・テンソルの要素の総和を計算してください。
・テンソルの要素の平均値を計算してください。
・テンソルの要素の標準偏差を計算してください。
・テンソルの要素の最大値と最小値を見つけてください。
・テンソルの要素の絶対値を計算してください。
・テンソルの要素の指数関数値を計算してください。
- テンソルの要素の自然対数を計算してください。
- テンソルをNumPy配列に変換してください。
- NumPy配列をテンソルに変換してください。
- テンソルをGPUに移動してください。
- テンソルをCPUに移動してください。
- 2つのテンソルを連結してください。:
- PyTorchを使って、単純なニューラルネットワークを定義してください。
- 定義したニューラルネットワークの順伝播を実装してください。
- 定義したニューラルネットワークの逆伝播を実装してください。
- PyTorchのoptimモジュールを使って、確率的勾配降下法を実装してください。
- PyTorchのnn.Moduleを継承して、カスタムレイヤーを定義してください。
- PyTorchのDatasetとDataLoaderを使って、データの読み込みとバッチ化を実装してください。
- 畳み込みニューラルネットワーク(CNN)を定義し、MNISTデータセットで訓練してください。
- リカレントニューラルネットワーク(RNN)を定義し、文字レベルの言語モデルを訓練してください。
- 長短期記憶(LSTM)を使って、時系列データの予測モデルを構築してください。
- Transformerモデルを定義し、機械翻訳タスクで訓練してください。
- 敵対的生成ネットワーク(GAN)を使って、画像の生成モデルを構築してください。
- 変分オートエンコーダー(VAE)を使って、画像の生成モデルを構築してください。
- 深層強化学習(DQN)を使って、強化学習エージェントを訓練してください。
- A2Cアルゴリズムを使って、強化学習エージェントを訓練してください。
- PPOアルゴリズムを使って、強化学習エージェントを訓練してください。
- Semantic Segmentationモデル(例:U-Net)を定義し、訓練してください。
- Object Detectionモデル(例:Faster R-CNN)を定義し、訓練してください。
- 転移学習を使って、事前学習済みのモデルをファインチューニングしてください。
- PyTorchのプロファイラを使って、モデルのパフォーマンスを分析してください。
- PyTorchのJITコンパイラを使って、モデルを最適化してください。
cuQuantum
- PennyLaneをインポートし、バージョンを確認してください。
- PennyLaneを使って、1量子ビットの状態を準備してください。
- 2量子ビットの重ね合わせ状態を準備してください。
- 2量子ビットのエンタングル状態を準備してください。
- Hadamardゲートを適用してください。
- Pauliゲート(X、Y、Z)を適用してください。
- CNOTゲートを適用してください。
- SWAPゲートを適用してください。
- 位相ゲート(例:S、T)を適用してください。
- 回転ゲート(例:RX、RY、RZ)を適用してください。
- 制御ゲート(例:制御Zゲート)を適用してください。
- 1量子ビットの測定を行い、結果を取得してください。
- 2量子ビットの測定を行い、結果を取得してください。
- 量子回路の状態ベクトルを取得してください。
- 量子回路の行列表現を取得してください。
- 量子回路の期待値を計算してください。
- パラメトリック量子回路を定義してください。
- パラメトリック量子回路のパラメータを最適化してください。
- 量子回路の勾配を計算してください。
- ハイブリッド量子古典アルゴリズムを実装してください。
- 量子ニューラルネットワーク(QNN)を定義してください。
- QNNを使って、二項分類問題を解いてください。
- QNNを使って、多項分類問題を解いてください。
- QNNを使って、回帰問題を解いてください。
- 量子変分固有ソルバー(VQE)を実装してください。
- VQEを使って、分子の基底エネルギーを計算してください。
- 量子近似最適化アルゴリズム(QAOA)を実装してください。
- QAOAを使って、最大カット問題を解いてください。
- 量子回路学習(QCL)を実装してください。
- QCLを使って、量子状態の生成モデルを構築してください。
- 量子トモグラフィーを実装してください。
- 量子トモグラフィーを使って、未知の量子状態を再構成してください。
- 量子誤り訂正コードを実装してください。
- 量子誤り訂正コードを使って、量子ビットのエラーを検出および訂正してください。
- 量子テレポーテーションを実装してください。
- 量子スワッピングテストを実装してください。
- 量子フェーズ推定アルゴリズムを実装してください。
- 量子アニーリングをシミュレートしてください。
- 量子ウォークを実装してください。
- ハイブリッド量子古典機械学習アルゴリズムを実装してください。
ControlNet
LoRa
Azure OpenAI Service
pika
資格取得
資格 | 取得状態 |
生成AIパスポート G検定資格 E資格 TOEFL |