Trzy nowe wielojęzyczne moduły USE trafiają do TensorFlow

Tech / Trzy nowe wielojęzyczne moduły USE trafiają do TensorFlow 2 minuty czytania

Wyszukiwanie głosowe Google



Google jest jednym z pionierów badań nad sztuczną inteligencją, a wiele ich projektów zwróciło uwagę. AlphaZero od Google DeepMind zespół był przełomem w badaniach nad sztuczną inteligencją ze względu na zdolność programu do samodzielnego uczenia się skomplikowanych gier (bez szkolenia i interwencji człowieka). Google również wykonał doskonałą pracę w Programy przetwarzania języka naturalnego (NLP), co jest jednym z powodów skuteczności Asystenta Google w rozumieniu i przetwarzaniu ludzkiej mowy.

Firma Google niedawno ogłosiła wydanie trzech nowych UŻYWAJ wielojęzycznych modułów i zapewnij bardziej wielojęzyczne modele wyszukiwania podobnego semantycznie tekstu.



Pierwsze dwa moduły zapewniają wielojęzyczne modele do pobierania semantycznie podobnego tekstu, jeden zoptymalizowany pod kątem wydajności pobierania, a drugi pod kątem szybkości i mniejszego wykorzystania pamięci. Trzeci model jest przeznaczony dla wyszukiwanie odpowiedzi na pytania w szesnastu językach (USE-QA) i stanowi zupełnie nowe zastosowanie USE. Wszystkie trzy wielojęzyczne moduły są szkolone przy użyciu wielozadaniowa platforma z dwoma koderami , podobnie jak w oryginalnym modelu USE dla języka angielskiego, używając technik, które opracowaliśmy w celu ulepszenia podwójny enkoder z dodatkowym marginesem softmax . Zostały zaprojektowane nie tylko w celu utrzymania dobrej wydajności uczenia się transferu, ale także do wykonywania dobrze semantycznych zadań wyszukiwania.



Przetwarzanie języka w systemach przeszło długą drogę, od podstawowego parsowania drzewa składni do modeli asocjacyjnych dużych wektorów. Zrozumienie kontekstu w tekście jest jednym z największych problemów w dziedzinie NLP, a Universal Sentence Encoder rozwiązuje ten problem, konwertując tekst na wielowymiarowe wektory, co ułatwia uszeregowanie i denotację tekstu.



Źródło struktury oznaczeń UTE - Blog Google

Według Google „ Wszystkie trzy nowe moduły są oparte na semantycznej architekturze pobierania, która zazwyczaj dzieli kodowanie pytań i odpowiedzi na oddzielne sieci neuronowe, co umożliwia przeszukiwanie miliardów potencjalnych odpowiedzi w ciągu milisekund. „Innymi słowy, pomaga to w lepszym indeksowaniu danych.

' Wszystkie trzy wielojęzyczne moduły są szkolone przy użyciu wielozadaniowa platforma z dwoma koderami , podobnie jak w oryginalnym modelu USE dla języka angielskiego, używając technik, które opracowaliśmy w celu ulepszenia podwójny enkoder z dodatkowym marginesem softmax . Zostały zaprojektowane nie tylko w celu utrzymania dobrej wydajności uczenia się transferu, ale także do wykonywania dobrze semantycznych zadań wyszukiwania . ” Funkcja Softmax jest często używana do oszczędzania mocy obliczeniowej przez potęgowanie wektorów, a następnie dzielenie każdego elementu przez sumę wykładniczej.



Semantyczna architektura wyszukiwania

„Wszystkie trzy nowe moduły są zbudowane na architekturach wyszukiwania semantycznego, które zazwyczaj dzielą kodowanie pytań i odpowiedzi na oddzielne sieci neuronowe, co umożliwia przeszukiwanie miliardów potencjalnych odpowiedzi w ciągu milisekund. Kluczem do korzystania z podwójnych koderów do wydajnego wyszukiwania semantycznego jest wstępne zakodowanie wszystkich odpowiedzi kandydatów na oczekiwane zapytania wejściowe i przechowywanie ich w wektorowej bazie danych zoptymalizowanej pod kątem rozwiązywania problemów. problem najbliższego sąsiada co pozwala na szybkie wyszukanie dużej liczby kandydatów z dobrym precyzja i pamięć ”.

Możesz pobrać te moduły z TensorFlow Hub. Więcej informacji można znaleźć w pełnej wersji GoogleAI post na blogu .

Tagi Google