VIDEO
Willkommen auf meinem Kanal, wo ich die klassischsten oder modernsten Modelle des maschinellen Lernens und des Deep Learning erläutern werde. Außerdem werde ich darüber sprechen, wie man in den Vereinigten Staaten lebt, wie man einen Job findet, wie man LeetCode nutzt und wie sich schnell in die Gesellschaft zu integrieren. Wenn es Ihnen gefällt, denken Sie daran, es zu abonnieren und zu liken! Wenn Sie etwas hören möchten, hinterlassen Sie unten einen Kommentar!
Aktuelle Tutorialliste:
Lineare Regression (LR), logistische Regression (LogR), polynomiale Regression (PR), Lasso-Regression, Ridge-Regression, elastisches Netzwerk (Elastic Net), Entscheidungsbaum (DT), Random Forest (RF), Gradient Boosting Tree (GBT), XGBoost, LightGBM, CatBoost, Support Vector Machine (SVM), Naive Bayes (NB), K Nearest Neighbor (KNN), Hauptkomponentenanalyse (PCA), Unabhängige Komponentenanalyse (ICA), Lineare Diskriminanzanalyse (LDA), t-verteilt Neighbor Embedding (t-SNE), Gaussian Mixture Model (GMM), Cluster Analysis (CA), K-means Clustering (K-means), DBSCAN, HDBSCAN, Hierarchical Clustering (HC), GAN (Generative Adversarial Network), CGAN, DCGAN, WGAN (Wasserstein GAN), StyleGAN, CycleGAN, VAE (Variations-Autoencoder), GPT (generatives Pre-Training-Modell), BERT, Transformer, LSTM (Long Short-Term Memory Network), GRU (Gated Recurrent Unit), RNN ( Recurrent Neural Network), CNN (Convolutional Neural Network), AlexNet, VGG, GoogLeNet, ResNet, MobileNet, EfficientNet, Inception, DeepDream, Deep Belief Network (DBN), Autoencoder (AE), Reinforcement Learning (RL), Q-Learning, SARSA, DDPG, A3C, SAC, Temporal Differential Learning (TD), Actor-Critic, Adversarial Training, Gradient Descent (GD), Stochastic Gradient Descent (SGD), Batch Gradient Descent (BGD), Adam, RMSprop, AdaGrad, AdaDelta, Nadam, Kreuzentropieverlust, mittlerer quadratischer Fehlerverlust, KL-Divergenzverlust, Scharnierverlustfunktion, Perzeptron, neuronales RBF-Netzwerk, Hopfield-Netzwerk, Boltzmann-Maschine, tiefes Verstärkungslernen (DRL), selbstüberwachtes Lernen, Transferlernen, verallgemeinertes kontradiktorisches Netzwerk (GAN), Adversarial Generative Network (GAN), Trained Generative Network (TGAN), CycleGAN, Deep Learning Generative Model (DLGM), Autoencoder Generative Adversarial Network (AEGAN), Distributed Autoencoder (DAE), Network Activation Optimizer (NAO) ), Autoencoder, VQ-VAE, LSTM-VAE, Convolutional Autoencoder (CAE), GAN Autoencoder (GANAE), U-Net, Deep Q Network (DQN), Dual DQN (DDQN), Prioritized Experience Replay DQN (Prioritized Experience Replay DQN), Multi-Agent-DQN (Multi-Agent-DQN), Deep Deterministic Policy Gradient (DDPG), Perceptron (Perceptron), Sparse Autoencoder (SAE), Sparse Representation Classification (SRC), Deep Belief Network (DBN), Support Vector Machine (SVM). ), Ensemble-Lernen, Random Forest, Extreme Gradient Boosting Tree (XGBoost), AdaBoost, Gradient Boosting Machine, Stacking, Bayesianische Optimierung, Bayesianisches Netzwerk, EM-Algorithmus (Expectation-Maximization-Algorithmus), Gaußscher Prozess, Markov Chain Monte Carlo (MCMC), Verstärkungslernen (Reinforcement Learning), unüberwachtes Lernen, halbüberwachtes Lernen, überwachtes Lernen, Transferlernen, Dimensionsreduktion, Merkmalsauswahl), Merkmalsextraktion, Regularisierung, Normalisierung, Clustering, Klassifizierung, Regression, Dimensionsreduktion, Merkmalszuordnung, neuronales Netzwerk, Neuron, Aktivierungsfunktion, Verlustfunktion, Optimierer, Lernrate, Stapelgröße, Anzahl der Iterationen (Epoche), Hyperparameter, Modellbewertung, Kreuzvalidierung, Verwirrungsmatrix, ROC-Kurve, AUC-Wert, Präzision, Rückruf, F1-Score, Modellinterpretierbarkeit, Funktionsbedeutung, lokale Erklärung, globale Erklärung, Pipeline für maschinelles Lernen), Modellgenerierung mit einem Klick (AutoML), Hyperparameteroptimierung (Hyperparameter Tuning), FFT, Laplace-Transformation, z-Transformation, Fourier-Transformation, Kurzzeit-Fourier-Transformation (STFT), IIR, FIR, Kalman-Filterung, DIP-Algorithmus, Wavelet-Transformation