0740f660

Частота погрешностей Google в распознавании речи с 2012 года снизилась не менее чем на 30 %

Младший академический работник Google Джефф Дин (Jeff Dean) в масштабах пресс-конференции AI Frontiers Conference в Санта-Кларе, Калифорния, сообщил о том, как далеко компании удалось подвинуться в плане усовершенствования собственного ПО для узнавания речи. Например, Дин сообщил, что частота неверных слов в распознавании речи, другими словами то, как часто Google неправильно транскрибирует слова, уменьшилась не менее чем на 30 %. Первоначально про это сообщила Карисса Белл (Karissa Bell) с веб-сайта Mashable в Твиттер, затем информацию доказал представитель Google изданию VentureBeat.

VentureBeat

VentureBeat

Дин объединяет такой прогресс с «прибавлением нейронных сетей» — систем, которые Google и прочие компании применяют для работы с технологиями бездонного изучения. Нейронные сети улучшаются благодаря разбору огромных объёмов данных вроде отрывков речи. В первый раз Google начала применять нейронные сети в собственных системах узнавания речи ещё в 2012 году, когда прошел старт Андроид Jelly Bean.

Google редко сообщает о собственных достоинствах в усовершенствовании данной, вне сомнения, значительной технологии, применяемой во всё огромном количестве товаров компании, начиная с «интеллектуальных» колонок Google Хоум и заканчивая онлайн клавиатурой Gboard для iOS и Андроид. Все-таки, в 2015 году гендиректор компании Сундар Пичаи (Sundar Pichai) сообщил, что её частота неверных слов составляет 8 %.

В начале августа минувшего года Алекс Асеро (Alex Acero), младший генеральный директор голосового ассистента Siri компании Эпл, сообщил, что частота погрешностей Siri снизилось вдвое в масштабах всех языков, но во всех вариантах даже не менее чем вдвое. В начале сентября 2016 года Майкрософт рассказала, что её ученым удалось добиться уровня частоты неверных слов в 6,3 %.

Вы можете оставить комментарий, или ссылку на Ваш сайт.

Оставить комментарий