Send us a text On this very funny short Bonus Show, standup comic Mack Dryden shares his story about going to the Dentist...you'll never believe what happens...Hilarious! Look for Mack Dryden's "NEW" Dry Bar Comedy Special... Please Listen, Enjoy, and Share where you can...Thanks!! Support the show Standup Comedy Podcast Network.co www.StandupComedyPodcastNetwork.com Free APP on all Apple & Android phones....check it out, podcast, jokes, blogs, and More! For short-form standup comedy sets, listen to: "Comedy Appeteasers" , available on all platforms. New YouTube site: https://www.youtube.com/@standupcomedyyourhostandmc/videos Videos of comics live on stage from back in the day. Please Write a Review: in-depth walk-through for leaving a review. Interested in Standup Comedy? Check out my books on Amazon... "20 Questions Answered about Being a Standup Comic" "Be a Standup Comic...or just look like one"…
22: Vorlesung | 0:00:00 Starten 0:00:43 Adaption 0:08:52 Motivation 0:13:40 Adaption des Akustischen Modells 0:16:21 Mögliche Variationen 0:18:24 Adaption als Transformation 0:22:51 Arten der Adaption 0:27:13 Batch vs. Inkrementell 0:31:17 Überwachte und Unüberwachte Adaption 0:32:18 Training vs. Normalisierung 0:33:07 Merkmals vs. Modelladaption 0:36:23 Anwendung der Transformation 0:37:27 Optimierungskriterien zur Schätzung 0:39:40 Adaptionsmethoden 0:42:43 Vokaltraktlängen-normalisierung (VTLN) 0:52:39 VTLN: Experimente 0:58:53 Inkrementelle Adaption 1:05:06 Verschiedenes zu VTLN 1:08:48 MAP Adaption 1:14:37 Maximum Likelihood Linear Regression (MLLR) 1:17:54 Finden von Klassen 1:20:11 Label Boosting mit MLLR 1:21:48 Welche Adaption unter welchen Bedingungen 1:23:14 fMLLR…
20: Vorlesung | 0:00:00 Starten 0:00:19 Suchstrategien 0:01:25 Tiefensuche vs. Breitensuche 0:01:57 Heuristische Graphsuche 0:02:45 Zeitasynchrone Suche mit A* 0:04:15 Zeitsynchrone Strahlsuche 0:10:31 Beams in ASR 0:12:13 Beam vs. WER 0:15:45 Kontinuierliche Suchräume, gleichverteiltes Sprachmodell 0:20:59 Suchraum mit Uni-Gramm 0:23:03 Suchraum mit Bi-Grammen 0:26:32 Suchraum mit Tri-Grammen 0:33:48 Viterbi Decoding 0:40:42 A* mit Stack Decoder 0:42:50 Heuristik für A* 0:44:43 Fast Match 0:47:36 Vor- und Nachteile eines Stackdecoders 0:51:10 A* vs. Strahlsuche 0:52:39 Vermeidung von Redundanzen 0:54:44 Baumsuche 0:57:30 Baumsuche mit Sprachmodell 0:59:04 Delayed Bi-Grams 1:01:51 Einsparung durch Baum-Lexica 1:05:41 Kopien von Suchbäumen 1:10:36 Suche mit kontextabhängigen Modellen 1:13:38 Baumsuche mit kontextabhängigen Modellen 1:16:45 N-Besten Suche…
18: Vorlesung | 0:00:00 Starten 0:00:37 Graphembasierte Spracherkennung 0:06:48 Eignung von Graphemen 0:14:38 Verteilung von Schriften 0:16:21 Verteilung der Schriftsysteme 0:17:12 Eignung von Graphemen 0:18:10 Beispiele für schlechte Korrespondenz 0:19:32 Graphembasierte ASR für Arabisch 0:20:19 Englisch, Deutsch, Russisch, Spanisch, Thai 0:21:12 Kontextabhängige Modelle für Grapheme ASR 0:23:10 Flexibler Clusterbaum für Grapheme 0:24:20 Praktische Probleme 0:27:13 Spracherkennung bei ungeschriebenen Sprachen 0:30:13 Plansprachen (Exkurs) 0:32:23 Esperanto 0:35:15 Esperanto und ASR 0:35:59 Toki Pona 0:37:55 Toki Pona und ASR 0:38:40 Entwurf einer Sprache für ASR 0:40:45 Entwurf von Ziffernwörtern 0:42:42 Ergebnis 0:43:49 ASR für Roboter Interaktion 0:47:01 ASR für Roboter Interaktion (Ausblick)…
15: Vorlesung | 0:00:00 Starten 0:05:06 Fehler durch falsche Aussprachen 0:08:07 Generierung von Aussprachewörterbüchern 0:11:32 Verwendung von existierenden Wörterbüchern 0:18:46 Lernen von Ausspracheregeln 0:28:21 Inkrementelles Lernen 0:30:07 Aussprachevarianten 0:33:21 Finden von Aussprachevarianten 0:35:28 Probleme mit Aussprachevarianten 0:39:45 Typische Aussprachevarianten 0:40:16 Regeln für Aussprachevarianten im Deutschen 0:41:31 Datengetriebenes finden von Aussprachevarianten 0:42:51 Finden von Aussprachevarianten mit dem Silbenmodell 0:44:04 Flexibles Trainingsalignment 0:45:45 Aussprachen bestimmen für unüberwachtes Lernen 0:47:27 Emotionserkennung mit Hilfe von Aussprachevarianten 0:49:22 Aussprachewörterbuch Entwicklung (nach Adda-Decker und Lamel) 0:51:23 Multiworte 0:53:56 Single Pronunciation Dictionaries 0:56:00 Erweiterter Clusterbaum 0:56:06 Ergebnisse 1:01:07 Literaturempfehlung 1:01:51 Sprachmodellierung 1:02:04 Erinnerung: Fundamentalformel 1:02:34 Deterministische vs. Stochastische Sprachmodelle 1:04:57 Wörterratespiel 1:08:46 Wozu dient das Sprachmodell 1:11:12 Stochastische Sprachmodelle 1:16:40 Äquivalenzklassen 1:19:00 Schätzen von N-Gramm W`keiten 1:19:53 Beispiel…
14: Vorlesung | 0:00:00 Starten 0:02:34 Polyphone 0:03:32 Polyphone-Datenmangel 0:04:32 Anzahl der Polyphone 0:05:46 Häufigkeiten der Polyphone 0:07:42 Backoff für Polyphone 0:10:10 Gekoppelte Polyphone 0:11:32 Bottom-Up vs. Top-Down Clustering 0:13:15 Bottom-Up Clustering 0:13:41 Top-Down Clustering 0:14:30 Probleme beim Clustering 0:15:48 Distanzen für Polyphonecluster 0:20:53 Diskrete Entropiedistanz 0:26:50 Gewichtete Entropiedistanz 0:29:58 Clustern von Polyphonen mit Entropiedistanz 0:32:00 Clustern nach Kai-Fu Lee 0:39:11 Problem der Vokabularbeschränktheit 0:40:12 Clustering mit Entscheidungsbäumen 0:42:03 Top-Down Clustern 0:44:02 Der Wachstumsprozess 0:44:29 Während der Erkennung 0:45:27 Abbruchkriterium für das Clustern 0:48:07 Clustern mit Likelihood Distanz 0:50:01 Problem bei Clustern mit Likelihood Distanz 0:52:04 Kontextfragen 0:57:47 Typische Kontextfragen 1:00:45 Abdeckung durch Polyphone 1:04:53 Gewinn durch längere Kontexte…
13: Vorlesung | 0:00:00 Starten 0:00:10 EM-Algorithmus für HMMs 0:48:30 EM-Algorithmus 0:49:35 EM - Expectation Schritt 0:50:10 EM-Maximization Schritt 0:51:09 EM für Mixtur-Gewichte 1:01:27 EM für Gaußmixturen 1:10:07 EM für HMMs 1:13:12 EM für HMMs - Anfangswahrscheinlichkeiten 1:14:26 EM für HMMs - Übergangswahrscheinlichkeiten 1:15:54 EM Algorithmus - diskrete Emissionswahrscheinlichkeiten 1:17:08 EM Algorithmus - Emisssionswahrscheinlichkeiten GMM 1:21:13 HMM Training für multiple Trainingssequenzen 1:24:31 HMMs in ASR…
12: Vorlesung | 0:00:00 Starten 0:01:22 Die Fundamentalformel 0:02:47 HMM Definition 0:06:01 Die Drei Probleme der HMMs 0:11:23 Forward Algorithmus 0:23:04 Backward Algorithmus 0:27:43 Das Decoding Problem 0:33:02 Viterbi-Algorithmus 0:36:01 Das Lern-Problem 0:46:23 Baum-Welch Regeln 0:52:35 Literatur 0:54:42 Maximum-Likelihood Methode 0:59:20 Expectation Maximization (EM) 1:06:13 EM-Expectation Schritt 1:09:04 EM- Maximization Schritt 1:11:58 EM für Mixtur-Gewichte…
08: Vorlesung | 0:00:00 Starten 0:00:24 Wiederholung: Laplace Transformation, Kurzzeitspektralanalyse 0:06:06 Quelle Filter Modell der Sprache 0:07:40 Helmholtzresonator 0:12:25 Vokaldreieck 0:18:34 Lineare Vorhersage (LPC) 0:26:46 Interpretation der LPC Koeffizienten 0:29:04 All-Pole Modell 0:30:16 LPC Beispiel 0:35:33 Cesptrum 0:51:39 Diskrete Cosinustransformation 0:59:11 Beispiel: Berechnung MFCC Koeffizienten 1:00:02 Filterbank im Leistungsbetrags-Spektrum (Mel-Filterbank) 1:00:41 Logarithmus auf Leistungsbetragsspektrum 1:01:29 Cepstral-Koeffizienten 1:03:19 Log-Spektrum rekonstruiert von (geliftertem) Cepstrum 1:03:44 Vergleich Verschiedener Spektren 1:04:21 Typische Vorverarbeitung 1:13:00 Dynamische Merkmale 1:14:10 Autokorrelation 1:21:18 Nulldurchgangsrate 1:23:15 Hauptkomponentenanalyse (PCA)…
Velkommen til Player FM!
Player FM scanner netter for høykvalitets podcaster som du kan nyte nå. Det er den beste podcastappen og fungerer på Android, iPhone og internett. Registrer deg for å synkronisere abonnement på flere enheter.
Bli med på verdens beste podcastapp for å håndtere dine favorittserier online og spill dem av offline på vår Android og iOS-apper. Det er gratis og enkelt!