Logo video2dn
  • Сохранить видео с ютуба
  • Категории
    • Музыка
    • Кино и Анимация
    • Автомобили
    • Животные
    • Спорт
    • Путешествия
    • Игры
    • Люди и Блоги
    • Юмор
    • Развлечения
    • Новости и Политика
    • Howto и Стиль
    • Diy своими руками
    • Образование
    • Наука и Технологии
    • Некоммерческие Организации
  • О сайте

Скачать или смотреть Comparative Error Analysis in Neural and Finite-state Models for Unsup. Character-level Transduction

  • Language Technologies Institute at Carnegie Mellon (LTI at CMU)
  • 2021-08-18
  • 110
Comparative Error Analysis in Neural and Finite-state Models for Unsup. Character-level Transduction
  • ok logo

Скачать Comparative Error Analysis in Neural and Finite-state Models for Unsup. Character-level Transduction бесплатно в качестве 4к (2к / 1080p)

У нас вы можете скачать бесплатно Comparative Error Analysis in Neural and Finite-state Models for Unsup. Character-level Transduction или посмотреть видео с ютуба в максимальном доступном качестве.

Для скачивания выберите вариант из формы ниже:

  • Информация по загрузке:

Cкачать музыку Comparative Error Analysis in Neural and Finite-state Models for Unsup. Character-level Transduction бесплатно в формате MP3:

Если иконки загрузки не отобразились, ПОЖАЛУЙСТА, НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если у вас возникли трудности с загрузкой, пожалуйста, свяжитесь с нами по контактам, указанным в нижней части страницы.
Спасибо за использование сервиса video2dn.com

Описание к видео Comparative Error Analysis in Neural and Finite-state Models for Unsup. Character-level Transduction

Comparative Error Analysis in Neural and Finite-state Models for Unsupervised Character-level Transduction
The 18th SIGMORPHON Workshop on Computational Research in Phonetics, Phonology, and Morphology (SIGMORPHON 2021)
Maria Ryskina, Eduard Hovy, Taylor Berg-Kirkpatrick, Matthew R. Gormley

Twitter: @maria_ryskina

Abstract: Traditionally, character-level transduction problems have been solved with finite-state models designed to encode structural and linguistic knowledge of the underlying process, whereas recent approaches rely on the power and flexibility of sequence-to-sequence models with attention. Focusing on the less explored unsupervised learning scenario, we compare the two model classes side by side and find that they tend to make different types of errors even when achieving comparable performance. We analyze the distributions of different error classes using two unsupervised tasks as testbeds: converting informally romanized text into the native script of its language (for Russian, Arabic, and Kannada) and translating between a pair of closely related languages (Serbian and Bosnian). Finally, we investigate how combining finite-state and sequence-to-sequence models at decoding time affects the output quantitatively and qualitatively.


Paper: https://aclanthology.org/2021.sigmorp...

#NLProc #MachineLearning

Комментарии

Информация по комментариям в разработке

Похожие видео

  • О нас
  • Контакты
  • Отказ от ответственности - Disclaimer
  • Условия использования сайта - TOS
  • Политика конфиденциальности

video2dn Copyright © 2023 - 2025

Контакты для правообладателей [email protected]