Player FM - Internet Radio Done Right
Checked 5M ago
Lagt til seven år siden
Innhold levert av Karlsruher Institut für Technologie (KIT). Alt podcastinnhold, inkludert episoder, grafikk og podcastbeskrivelser, lastes opp og leveres direkte av Karlsruher Institut für Technologie (KIT) eller deres podcastplattformpartner. Hvis du tror at noen bruker det opphavsrettsbeskyttede verket ditt uten din tillatelse, kan du følge prosessen skissert her https://no.player.fm/legal.
Player FM - Podcast-app
Gå frakoblet med Player FM -appen!
Gå frakoblet med Player FM -appen!
Grundlagen der automatischen Spracherkennung, WS 2015/2016, gehalten am 11.01.2016, Vorlesung 15
Manage episode 188269338 series 1580639
Innhold levert av Karlsruher Institut für Technologie (KIT). Alt podcastinnhold, inkludert episoder, grafikk og podcastbeskrivelser, lastes opp og leveres direkte av Karlsruher Institut für Technologie (KIT) eller deres podcastplattformpartner. Hvis du tror at noen bruker det opphavsrettsbeskyttede verket ditt uten din tillatelse, kan du følge prosessen skissert her https://no.player.fm/legal.
15: Vorlesung | 0:00:00 Starten 0:05:06 Fehler durch falsche Aussprachen 0:08:07 Generierung von Aussprachewörterbüchern 0:11:32 Verwendung von existierenden Wörterbüchern 0:18:46 Lernen von Ausspracheregeln 0:28:21 Inkrementelles Lernen 0:30:07 Aussprachevarianten 0:33:21 Finden von Aussprachevarianten 0:35:28 Probleme mit Aussprachevarianten 0:39:45 Typische Aussprachevarianten 0:40:16 Regeln für Aussprachevarianten im Deutschen 0:41:31 Datengetriebenes finden von Aussprachevarianten 0:42:51 Finden von Aussprachevarianten mit dem Silbenmodell 0:44:04 Flexibles Trainingsalignment 0:45:45 Aussprachen bestimmen für unüberwachtes Lernen 0:47:27 Emotionserkennung mit Hilfe von Aussprachevarianten 0:49:22 Aussprachewörterbuch Entwicklung (nach Adda-Decker und Lamel) 0:51:23 Multiworte 0:53:56 Single Pronunciation Dictionaries 0:56:00 Erweiterter Clusterbaum 0:56:06 Ergebnisse 1:01:07 Literaturempfehlung 1:01:51 Sprachmodellierung 1:02:04 Erinnerung: Fundamentalformel 1:02:34 Deterministische vs. Stochastische Sprachmodelle 1:04:57 Wörterratespiel 1:08:46 Wozu dient das Sprachmodell 1:11:12 Stochastische Sprachmodelle 1:16:40 Äquivalenzklassen 1:19:00 Schätzen von N-Gramm W`keiten 1:19:53 Beispiel
…
continue reading
22 episoder
Grundlagen der automatischen Spracherkennung, WS 2015/2016, gehalten am 11.01.2016, Vorlesung 15
Grundlagen der Automatischen Spracherkennung, WS15/16, Vorlesung
Manage episode 188269338 series 1580639
Innhold levert av Karlsruher Institut für Technologie (KIT). Alt podcastinnhold, inkludert episoder, grafikk og podcastbeskrivelser, lastes opp og leveres direkte av Karlsruher Institut für Technologie (KIT) eller deres podcastplattformpartner. Hvis du tror at noen bruker det opphavsrettsbeskyttede verket ditt uten din tillatelse, kan du følge prosessen skissert her https://no.player.fm/legal.
15: Vorlesung | 0:00:00 Starten 0:05:06 Fehler durch falsche Aussprachen 0:08:07 Generierung von Aussprachewörterbüchern 0:11:32 Verwendung von existierenden Wörterbüchern 0:18:46 Lernen von Ausspracheregeln 0:28:21 Inkrementelles Lernen 0:30:07 Aussprachevarianten 0:33:21 Finden von Aussprachevarianten 0:35:28 Probleme mit Aussprachevarianten 0:39:45 Typische Aussprachevarianten 0:40:16 Regeln für Aussprachevarianten im Deutschen 0:41:31 Datengetriebenes finden von Aussprachevarianten 0:42:51 Finden von Aussprachevarianten mit dem Silbenmodell 0:44:04 Flexibles Trainingsalignment 0:45:45 Aussprachen bestimmen für unüberwachtes Lernen 0:47:27 Emotionserkennung mit Hilfe von Aussprachevarianten 0:49:22 Aussprachewörterbuch Entwicklung (nach Adda-Decker und Lamel) 0:51:23 Multiworte 0:53:56 Single Pronunciation Dictionaries 0:56:00 Erweiterter Clusterbaum 0:56:06 Ergebnisse 1:01:07 Literaturempfehlung 1:01:51 Sprachmodellierung 1:02:04 Erinnerung: Fundamentalformel 1:02:34 Deterministische vs. Stochastische Sprachmodelle 1:04:57 Wörterratespiel 1:08:46 Wozu dient das Sprachmodell 1:11:12 Stochastische Sprachmodelle 1:16:40 Äquivalenzklassen 1:19:00 Schätzen von N-Gramm W`keiten 1:19:53 Beispiel
…
continue reading
22 episoder
Alle episoder
×1 Grundlagen der automatischen Spracherkennung, WS 2015/2016, gehalten am 08.02.2016, Vorlesung 22 1:25:36
1:25:36
Spill senere
Spill senere
Lister
Lik
Likt
1:25:3622: Vorlesung | 0:00:00 Starten 0:00:43 Adaption 0:08:52 Motivation 0:13:40 Adaption des Akustischen Modells 0:16:21 Mögliche Variationen 0:18:24 Adaption als Transformation 0:22:51 Arten der Adaption 0:27:13 Batch vs. Inkrementell 0:31:17 Überwachte und Unüberwachte Adaption 0:32:18 Training vs. Normalisierung 0:33:07 Merkmals vs. Modelladaption 0:36:23 Anwendung der Transformation 0:37:27 Optimierungskriterien zur Schätzung 0:39:40 Adaptionsmethoden 0:42:43 Vokaltraktlängen-normalisierung (VTLN) 0:52:39 VTLN: Experimente 0:58:53 Inkrementelle Adaption 1:05:06 Verschiedenes zu VTLN 1:08:48 MAP Adaption 1:14:37 Maximum Likelihood Linear Regression (MLLR) 1:17:54 Finden von Klassen 1:20:11 Label Boosting mit MLLR 1:21:48 Welche Adaption unter welchen Bedingungen 1:23:14 fMLLR…
1 Grundlagen der automatischen Spracherkennung, WS 2015/2016, gehalten am 03.02.2016, Vorlesung 21 59:08
59:08
Spill senere
Spill senere
Lister
Lik
Likt
59:0821: Vorlesung | 0:00:00 Starten 0:00:10 Suche 0:00:29 N-Besten Suche 0:01:50 Probleme mit n besten Listen 0:02:54 Wortgraphen 0:04:14 Zusammenfassung Beschleunigungstechniken 0:06:00 Mehrpass Suchen 0:06:55 Beispiel: IBIS Single Pass Decoder 0:11:18 Consensus Decoding 0:13:01 Bsp: MAP vs. Wort-Posteriori-W´keiten 0:16:36 Minimierung des Wortfehlers 0:19:28 Approximierung mit N-besten Listen 0:21:36 WER Minimierung auf Wortgraphen 0:24:26 Multiple Alignment WER 0:29:19 Finden des globalen Alignment 0:30:50 Multiple Alignment WER 0:32:37 Alignment als Äquivalenzrelation 0:34:37 Finden einer angemessenen Äquivalenzrelation 0:36:38 Intra-Wort-Clustern 0:38:44 Pruning 0:40:37 Confusionsnetzwerke 0:42:28 Multiple Alignment WER 0:43:03 Confusionsnetzwerke 0:43:26 Confusionsnetzwer-Hypothese 0:45:16 Multiple Alignment WER 0:45:53 Experimente 0:47:58 Systemkombination 0:49:14 Systemkombination mit ROVER 0:50:27 Alignierung vieler Hypothesen mittels DP 0:51:49 Beispiel…
1 Grundlagen der automatischen Spracherkennung, WS 2015/2016, gehalten am 01.02.2016, Vorlesung 20 1:23:29
1:23:29
Spill senere
Spill senere
Lister
Lik
Likt
1:23:2920: Vorlesung | 0:00:00 Starten 0:00:19 Suchstrategien 0:01:25 Tiefensuche vs. Breitensuche 0:01:57 Heuristische Graphsuche 0:02:45 Zeitasynchrone Suche mit A* 0:04:15 Zeitsynchrone Strahlsuche 0:10:31 Beams in ASR 0:12:13 Beam vs. WER 0:15:45 Kontinuierliche Suchräume, gleichverteiltes Sprachmodell 0:20:59 Suchraum mit Uni-Gramm 0:23:03 Suchraum mit Bi-Grammen 0:26:32 Suchraum mit Tri-Grammen 0:33:48 Viterbi Decoding 0:40:42 A* mit Stack Decoder 0:42:50 Heuristik für A* 0:44:43 Fast Match 0:47:36 Vor- und Nachteile eines Stackdecoders 0:51:10 A* vs. Strahlsuche 0:52:39 Vermeidung von Redundanzen 0:54:44 Baumsuche 0:57:30 Baumsuche mit Sprachmodell 0:59:04 Delayed Bi-Grams 1:01:51 Einsparung durch Baum-Lexica 1:05:41 Kopien von Suchbäumen 1:10:36 Suche mit kontextabhängigen Modellen 1:13:38 Baumsuche mit kontextabhängigen Modellen 1:16:45 N-Besten Suche…
1 Grundlagen der automatischen Spracherkennung, WS 2015/2016, gehalten am 27.01.2016, Vorlesung 19 1:11:02
1:11:02
Spill senere
Spill senere
Lister
Lik
Likt
1:11:0219: Vorlesung | 0:00:00 Starten 0:00:14 Erinnerung: Fundamentalformel 0:02:20 Deterministische Sprachmodelle 0:05:42 Repräsentation der Grammatik 0:07:18 Formale Sprachtheorie 0:09:35 Chomsky Hierarchie 0:11:42 Chartparsing 0:14:29 Probabilistische CFGs 0:19:56 Probleme mit Erkennungsfehlern 0:24:06 Kombination von Sprachmodell und Akustischem Modell 0:33:35 Suche 0:35:46 Erinnerung: Fundamentalformel 0:37:15 Suche in der Spracherkennung 0:42:46 Erinnerung DTW und One-Stage-DP 0:44:02 Suche im Allgemeinen 0:46:51 Suche mit DP und Heuristik 0:48:19 Kenngrößen für Suchprobleme 0:50:18 Forward-/Backward-/bidirektionale Suche 0:51:51 Explizite vs. Implizite Implementierung 0:53:42 Blinde Suche 0:55:24 Suchstrategien 0:58:29 Tiefensuche vs. Breitensuche 1:00:41 Heuristische Graphsuche 1:03:40 Zeitasynchrone Suche mit A*…
1 Grundlagen der automatischen Spracherkennung, WS 2015/2016, gehalten am 25.01.2016, Vorlesung 18 50:04
50:04
Spill senere
Spill senere
Lister
Lik
Likt
50:0418: Vorlesung | 0:00:00 Starten 0:00:37 Graphembasierte Spracherkennung 0:06:48 Eignung von Graphemen 0:14:38 Verteilung von Schriften 0:16:21 Verteilung der Schriftsysteme 0:17:12 Eignung von Graphemen 0:18:10 Beispiele für schlechte Korrespondenz 0:19:32 Graphembasierte ASR für Arabisch 0:20:19 Englisch, Deutsch, Russisch, Spanisch, Thai 0:21:12 Kontextabhängige Modelle für Grapheme ASR 0:23:10 Flexibler Clusterbaum für Grapheme 0:24:20 Praktische Probleme 0:27:13 Spracherkennung bei ungeschriebenen Sprachen 0:30:13 Plansprachen (Exkurs) 0:32:23 Esperanto 0:35:15 Esperanto und ASR 0:35:59 Toki Pona 0:37:55 Toki Pona und ASR 0:38:40 Entwurf einer Sprache für ASR 0:40:45 Entwurf von Ziffernwörtern 0:42:42 Ergebnis 0:43:49 ASR für Roboter Interaktion 0:47:01 ASR für Roboter Interaktion (Ausblick)…
1 Grundlagen der automatischen Spracherkennung, WS 2015/2016, gehalten am 18.01.2016, Vorlesung 17 1:23:47
1:23:47
Spill senere
Spill senere
Lister
Lik
Likt
1:23:4717: Vorlesung | 0:00:00 Starten 0:00:13 Kurze Wiederholung der letzten Vorlesung 0:04:16 Kneser-Ney Backoff 0:08:07 Schätzung von Beta - Margnialisierung 0:16:51 Leaving-One-Out Beta Schätzung 0:19:04 Ergebnisse von Kneser-Ney 0:20:27 Qualität von Sprachmodellen 0:23:21 Entropie einer Wortquelle 0:26:29 Perplexität von Sprachmodellen 0:35:16 Perplexität und Akustik 0:38:02 Klassenbasierte Sprachmodelle 0:44:08 Aussprachevarianten 0:45:58 Multiworte 0:47:59 Besondere Arten von Sprachmodellen 0:48:44 Interpolierte Sprachmodelle 0:53:56 Cache Sprachmodelle 0:57:49 Trigger Sprachmodelle 1:00:06 Mehrschichtige Sprachmodelle 1:01:56 Verzahnte Sprachmodelle 1:04:26 Morphembasierte Sprachmodelle 1:10:31 Entscheidungsbäume 1:12:02 HMMs für Modellierung 1:13:57 Probleme mit Spontaner Sprache 1:18:11 Probleme mit unbekannten Wörtern 1:20:34 Besonderheiten verschiedener Sprachen…
1 Grundlagen der automatischen Spracherkennung, WS 2015/2016, gehalten am 11.01.2016, Vorlesung 15 1:22:53
1:22:53
Spill senere
Spill senere
Lister
Lik
Likt
1:22:5315: Vorlesung | 0:00:00 Starten 0:05:06 Fehler durch falsche Aussprachen 0:08:07 Generierung von Aussprachewörterbüchern 0:11:32 Verwendung von existierenden Wörterbüchern 0:18:46 Lernen von Ausspracheregeln 0:28:21 Inkrementelles Lernen 0:30:07 Aussprachevarianten 0:33:21 Finden von Aussprachevarianten 0:35:28 Probleme mit Aussprachevarianten 0:39:45 Typische Aussprachevarianten 0:40:16 Regeln für Aussprachevarianten im Deutschen 0:41:31 Datengetriebenes finden von Aussprachevarianten 0:42:51 Finden von Aussprachevarianten mit dem Silbenmodell 0:44:04 Flexibles Trainingsalignment 0:45:45 Aussprachen bestimmen für unüberwachtes Lernen 0:47:27 Emotionserkennung mit Hilfe von Aussprachevarianten 0:49:22 Aussprachewörterbuch Entwicklung (nach Adda-Decker und Lamel) 0:51:23 Multiworte 0:53:56 Single Pronunciation Dictionaries 0:56:00 Erweiterter Clusterbaum 0:56:06 Ergebnisse 1:01:07 Literaturempfehlung 1:01:51 Sprachmodellierung 1:02:04 Erinnerung: Fundamentalformel 1:02:34 Deterministische vs. Stochastische Sprachmodelle 1:04:57 Wörterratespiel 1:08:46 Wozu dient das Sprachmodell 1:11:12 Stochastische Sprachmodelle 1:16:40 Äquivalenzklassen 1:19:00 Schätzen von N-Gramm W`keiten 1:19:53 Beispiel…
1 Grundlagen der automatischen Spracherkennung, WS 2015/2016, gehalten am 13.01.2016, Vorlesung 16 1:20:49
1:20:49
Spill senere
Spill senere
Lister
Lik
Likt
1:20:4916: Vorlesung | 0:00:00 Starten 0:00:14 Erinnerung: Fundamentalformel 0:02:17 Stochastische Sprachmodelle 0:03:54 Äquivalenzklassen 0:04:36 Schätzen von N-Gramm Wahrscheinlichkeiten 0:05:32 Beispiel 0:07:05 Bigramme und Trigramme 0:10:07 Das Bag-of-Words Experiment 0:10:56 Glättung von Sprachmodellparametern 0:15:07 Discounting 0:17:51 Interpolation (Lineare Glättung) 0:23:53 HMM für Interpolationsgewichte 0:30:03 Schätzung der Gewichte 0:42:03 Deleted Interpolation basierend auf den ""Conditional Counts"" 0:46:22 Praktische Aspekte 0:49:46 Schätzen von y 0:52:34 Allgemeines Rahmenwerk für Glättung 0:55:17 Weitere Notationen 0:59:17 Schätzung von qj und α 1:04:24 M bestimmen 1:08:06 Good-Turing Discounting 1:10:13 Back-Off Sprachmodelle 1:13:06 Back-Off LM 1:16:53 Katz Backoff…
1 Grundlagen der automatischen Spracherkennung, WS 2015/2016, gehalten am 21.12.2015, Vorlesung 14 1:05:50
1:05:50
Spill senere
Spill senere
Lister
Lik
Likt
1:05:5014: Vorlesung | 0:00:00 Starten 0:02:34 Polyphone 0:03:32 Polyphone-Datenmangel 0:04:32 Anzahl der Polyphone 0:05:46 Häufigkeiten der Polyphone 0:07:42 Backoff für Polyphone 0:10:10 Gekoppelte Polyphone 0:11:32 Bottom-Up vs. Top-Down Clustering 0:13:15 Bottom-Up Clustering 0:13:41 Top-Down Clustering 0:14:30 Probleme beim Clustering 0:15:48 Distanzen für Polyphonecluster 0:20:53 Diskrete Entropiedistanz 0:26:50 Gewichtete Entropiedistanz 0:29:58 Clustern von Polyphonen mit Entropiedistanz 0:32:00 Clustern nach Kai-Fu Lee 0:39:11 Problem der Vokabularbeschränktheit 0:40:12 Clustering mit Entscheidungsbäumen 0:42:03 Top-Down Clustern 0:44:02 Der Wachstumsprozess 0:44:29 Während der Erkennung 0:45:27 Abbruchkriterium für das Clustern 0:48:07 Clustern mit Likelihood Distanz 0:50:01 Problem bei Clustern mit Likelihood Distanz 0:52:04 Kontextfragen 0:57:47 Typische Kontextfragen 1:00:45 Abdeckung durch Polyphone 1:04:53 Gewinn durch längere Kontexte…
1 Grundlagen der automatischen Spracherkennung, WS 2015/2016, gehalten am 14.12.2015, Vorlesung 13 1:25:47
1:25:47
Spill senere
Spill senere
Lister
Lik
Likt
1:25:4713: Vorlesung | 0:00:00 Starten 0:00:10 EM-Algorithmus für HMMs 0:48:30 EM-Algorithmus 0:49:35 EM - Expectation Schritt 0:50:10 EM-Maximization Schritt 0:51:09 EM für Mixtur-Gewichte 1:01:27 EM für Gaußmixturen 1:10:07 EM für HMMs 1:13:12 EM für HMMs - Anfangswahrscheinlichkeiten 1:14:26 EM für HMMs - Übergangswahrscheinlichkeiten 1:15:54 EM Algorithmus - diskrete Emissionswahrscheinlichkeiten 1:17:08 EM Algorithmus - Emisssionswahrscheinlichkeiten GMM 1:21:13 HMM Training für multiple Trainingssequenzen 1:24:31 HMMs in ASR…
1 Grundlagen der automatischen Spracherkennung, WS 2015/2016, gehalten am 07.12.2015, Vorlesung 12 1:15:04
1:15:04
Spill senere
Spill senere
Lister
Lik
Likt
1:15:0412: Vorlesung | 0:00:00 Starten 0:01:22 Die Fundamentalformel 0:02:47 HMM Definition 0:06:01 Die Drei Probleme der HMMs 0:11:23 Forward Algorithmus 0:23:04 Backward Algorithmus 0:27:43 Das Decoding Problem 0:33:02 Viterbi-Algorithmus 0:36:01 Das Lern-Problem 0:46:23 Baum-Welch Regeln 0:52:35 Literatur 0:54:42 Maximum-Likelihood Methode 0:59:20 Expectation Maximization (EM) 1:06:13 EM-Expectation Schritt 1:09:04 EM- Maximization Schritt 1:11:58 EM für Mixtur-Gewichte…
1 Grundlagen der automatischen Spracherkennung, WS 2015/2016, gehalten am 30.11.2015, Vorlesung 11 1:20:17
1:20:17
Spill senere
Spill senere
Lister
Lik
Likt
1:20:1711: Vorlesung | 0:00:00 Starten 0:01:05 Aufgabe 0:10:18 Vektorquantisierung 0:11:47 Finden von Referenzvektoren 0:12:57 K-Mittelwerte 0:15:53 Learning VQ 0:18:12 LVQ 2, LVQ3 0:20:27 LVQ als KNN 0:29:42 Literaturempfehlung zu Statische Spracherkennung 0:30:39 Stochastik in der Spracherkennung 0:34:35 Die Fundamentalformel 0:39:58 Stochastische ASR - Akustische Modell 0:43:56 Stochastischer Prozess 0:49:12 Markow-Kette 0:51:11 Markow-Kette n-ter Ordnung 0:53:01 Markow-Ketten 1.Ordnung 0:54:59 Homogene Markow-Ketten 1.Ordnung 0:55:46 Beispiele 1:02:41 Hidden Markov Models 1:10:41 Urne Ball Modell 1:12:04 HMM Definition 1:15:01 HMM Beobachtungsgenerierung 1:16:52 Die HMM Trellis 1:18:53 Die Drei Probleme der HMMs…
1 Grundlagen der automatischen Spracherkennung, WS 2015/2016, gehalten am 25.11.2015, Vorlesung 10 1:24:55
1:24:55
Spill senere
Spill senere
Lister
Lik
Likt
1:24:5510: Vorlesung | 0:00:00 Starten 0:01:18 DTW für einzelne Wörter 0:09:35 DTW für Sequenzen mehrere Wörter 0:14:57 One Stage DP 0:33:51 Gaußverteilung (Normalverteilung) 1:05:01 Vektorquantisierung 1:11:11 Voronoiregionen 1:14:22 Mahalanobis Distanz 1:16:27 Vektorquantisierung als Klassifikationsproblem 1:17:52 K-Nächste Nachbar 1:22:05 Baumstruktur des Merkmalsraums 1:23:01 (Haus-) Aufgabe…
1 Grundlagen der automatischen Spracherkennung, WS 2015/2016, gehalten am 23.11.2015, Vorlesung 09 1:03:54
1:03:54
Spill senere
Spill senere
Lister
Lik
Likt
1:03:5409: Vorlesung | 0:00:00 Starten 0:01:03 Hauptkomponentenanalyse (PCA) 0:04:55 Lineare Diskriminanzanalyse 0:06:42 Vorverarbeitung mit Neuronalen Netzen 0:09:29 Bottleneck Features 0:11:29 Klassifikation 0:14:49 Statistische vs. Wissensbasierte Ansätze 0:17:07 Wissensbasiert: Entscheidungsbäume 0:18:09 Classification and Regression Trees 0:22:26 Überwachtes vs. Unüberwachtes Lernen 0:24:08 Unüberwachtes Lernen 0:26:09 Überwachtes Lernen 0:27:48 Parametrisches vs. Nicht-Parametrische Klassifikation 0:28:56 Bayes Klassifikator 0:32:02 Minimum Fehler Regel 0:33:42 Parzen Fenster 0:36:53 Spracherkennung mit Musterklassifikation 0:39:04 Vergleich ganzer Äußerungen 0:46:01 Time Warping 0:47:28 Erinnerung: Minimale Editierdistanz 0:50:19 Finden der minimalen Editierdistanz: DP Matrix 0:52:20 Dynamic Time Warping (DTW) 0:59:54 Strahlsuche 1:02:12 Mögliche Distanzen von Vektoren 1:03:01 Einordnung des DTW…
1 Grundlagen der automatischen Spracherkennung, WS 2015/2016, gehalten am 11.11.2015, Vorlesung 08 1:23:50
1:23:50
Spill senere
Spill senere
Lister
Lik
Likt
1:23:5008: Vorlesung | 0:00:00 Starten 0:00:24 Wiederholung: Laplace Transformation, Kurzzeitspektralanalyse 0:06:06 Quelle Filter Modell der Sprache 0:07:40 Helmholtzresonator 0:12:25 Vokaldreieck 0:18:34 Lineare Vorhersage (LPC) 0:26:46 Interpretation der LPC Koeffizienten 0:29:04 All-Pole Modell 0:30:16 LPC Beispiel 0:35:33 Cesptrum 0:51:39 Diskrete Cosinustransformation 0:59:11 Beispiel: Berechnung MFCC Koeffizienten 1:00:02 Filterbank im Leistungsbetrags-Spektrum (Mel-Filterbank) 1:00:41 Logarithmus auf Leistungsbetragsspektrum 1:01:29 Cepstral-Koeffizienten 1:03:19 Log-Spektrum rekonstruiert von (geliftertem) Cepstrum 1:03:44 Vergleich Verschiedener Spektren 1:04:21 Typische Vorverarbeitung 1:13:00 Dynamische Merkmale 1:14:10 Autokorrelation 1:21:18 Nulldurchgangsrate 1:23:15 Hauptkomponentenanalyse (PCA)…
Velkommen til Player FM!
Player FM scanner netter for høykvalitets podcaster som du kan nyte nå. Det er den beste podcastappen og fungerer på Android, iPhone og internett. Registrer deg for å synkronisere abonnement på flere enheter.