Корен Лазар (Koren Lazar), Бенни Сарет (Benny Saret), Асаф Иегудаи (Asaf Yehudai), Уэйн Горовиц (Wayne Horowitz), Натан Вассерман (Nathan Wasserman), Габриэль Становский (Gabriel Stanovsky), Еврейский университет Иерусалима (Hebrew University of Jerusalem), опубликовали статью "Заполнение пробелов в древних аккадских текстах: ", arXiv.org, 9 сентября 2021 г.
Аккадский язык использовался для коммуникации между людьми Ближнего Востока и Египта в позднем бронзовом и раннем железном веках, на нем говорили с 2500 г. до н.э. Писали клинописью - клиновидными оттисками на глиняных табличках. Клинописный корпус Oracc (Open Richly Annotated Cuneiform Corpus) - одна из основных коллекций аккадских транскрипций, около 2,3 млн знаков с 10 000 табличек. Многие знаки на табличках со временем стерлись, потеряны, пробелы пытаются заполнить специалисты в зависимости от контекста окружающих слов.
Хотя табличек очень много, отсутствующие куски текста до сих пор не позволяют ученым раскрыть все секреты древней восточной цивилизации. Искусственный интеллект, который учили читать на 104 языках, предсказывает пропущенные слова и фразы на клинописных табличках возрастом до 4520 лет достаточно точно, аналогично тому, как функция автозаполнения на телефоне предлагает следующую строку. Длинные и часто набираемые слова дополняются вариантом уже введённого ранее слова с таким же началом при наборе текста. Программа запоминает слова, как часто, в каком порядке они использовались. При наборе слова, предлагается недавно используемое слово для автозавершения.
Авторы представляют модели, которые дополняют недостающий текст с учетом транслитерации древних месопотамских документов, первоначально написанных на клинописных глиняных табличках. Из-за порчи табличек ученые часто полагаются на контекстные подсказки, чтобы вручную заполнить недостающие части в тексте, что является субъективным и длительным процессом. Эту задачу можно сформулировать как задачу моделирования замаскированного языка, используемого в основном как цель предварительного обучения для контекстуализированных языковых моделей. Разработано несколько архитектур, ориентируясь на аккадский язык того времени.
Обнаружили, что, несмотря на нехватку данных (до 1 млн. знаков), можно достичь высокого уровня производительности при прогнозировании пропущенных символов с совпадением до 89%, используя схему декодирования и предварительное обучение на данных с других языков и в разные периоды времени. Экспериментировали с различными адаптациями моделей на основе BERT (Bidirectional Encoder Representations from Transformers - Двунаправленный кодировщик представлений из трансформеров). Нейронная сеть от Google, который известен так же поисковой машиной, магазином приложений (Скачай в Google Play), Android и т.д.
Модели обучены и протестированы на Oracc, в сочетании с жадной схемой декодирования (локально оптимальные решения на каждом этапе) для расширения предсказания - с отдельных токенов (знаков) до нескольких слов. Специалисты сосредоточились на влиянии многоязычного предварительного обучения на последующую производительность, которое полезно для условий с ограниченными ресурсами. Производительность многоязычной языковой модели M-BERT (multilingual, многоязычный) превосходит одноязычную аккадскую модель примерно на 10%. Иногда новая модель подталкивала экспертов к новому образу мышления, которого у них ранее не было, - подчеркнул Габриэль Становски.
19.09.2021
Комментарий:
Шнобелевская премия 2019 по биологии
Намагниченных тараканов измеряли с помощью атомного магнитометра. Провели 15 измерений, каждое из которых длилось более 10 часов: 8 измерений на живых тараканах и 7 на мертвых. Мертвые намагниченные тараканы ведут себя совсем не так, как живые тараканы подробнее
Шнобелевская премия 2018 литература
Австралийцы из Квинслендский технологический университета напечатали статью - Жизнь слишком коротка для RTFM. RTFM -обратитесь к прилагаемому руководству. На вопросы отвечали 170 человек в течение 7 лет подробнее