AWS (Amazon Web Services) ogłosił wprowadzenie Live Meeting Assistant (LMA) – opartego na sztucznej inteligencji (AI) asystenta spotkań na żywo.
Elastyczny w użyciu, bogaty w funkcje i konfigurowalny Live Meeting Assistant wykorzystuje takie technologie i usługi jak sztuczna inteligencja i uczenie maszynowe (AI/ML) Amazon, Amazon Transcribe, Amazon Lex, bazy wiedzy dla Amazon Bedrock i duże modele podstawowe z Amazon Bedrock do transkrypcji i wyodrębniania szczegółowych informacji w czasie rzeczywistym z dźwięku rejestrowanego podczas spotkania. To potężne narzędzie dla wszystkich, którzy szukają oszczędności czasu podczas spotkania i po nim chcąc skupić się jedynie na pracy – powiedział Tomasz Stachlewski, Head of Technology CEE w AWS.
Do głównych funkcji nowego asystenta należy transkrypcja na żywo z przypisaniem mówcy. LMA jest obsługiwany przez modele Amazon Transcribe ASR w celu zapewnienia małych opóźnień i wysokiej dokładności zamiany mowy na tekst. W razie potrzeby istnieje możliwość nauczenia asystenta nazw marek i specyficznej terminologii, korzystając z niestandardowego słownictwa i funkcji modelu językowego w usłudze Amazon Transcribe.
Asystent pozwala na tłumaczenie na żywo - wykorzystuje tłumacza Amazon Translate, aby opcjonalnie wyświetlić każdy segment rozmowy przetłumaczony na jeden z 75 dostępnych języków.
LMA oferuje też kontekstowego asystenta spotkania, który korzysta z baz wiedzy dla Amazon Bedrock, aby udzielać odpowiedzi z zaufanych źródeł, wykorzystując transkrypcję na żywo jako kontekst do sprawdzania faktów i pytań uzupełniających.
Asystent Amazona pozwala na wygenerowanie podsumowania spotkania na żądanie, co jest przydatne, gdy ktoś dołącza późno i musi nadrobić zaległości. Podsumowania są generowane na podstawie transkrypcji przez Amazon Bedrock. LMA udostępnia również opcje identyfikowania bieżącego tematu spotkania oraz generowania listy działań do wykonania z przypisanymi osobami i datami ukończenia. Można także tworzyć własne niestandardowe monity i odpowiadające im opcje.
Po zakończeniu spotkania LMA automatycznie uruchamia zestaw monitów o duży model językowy w usłudze Amazon Bedrock, aby podsumować transkrypcję spotkania i wyodrębnić szczegółowe informacje. Te monity można także dostosować do własnych potrzeb, co zapewnia zautomatyzowane podsumowanie i szczegółowe informacje.
Asystent oferuje także nagrywanie spotkania - dźwięk jest (opcjonalnie) przechowywany, dzięki czemu później można odtworzyć ważne fragmenty spotkania.
Rozszerzenie przeglądarki przechwytuje dźwięk i metadane spotkań - tytuł spotkania, nazwiska aktywnych prelegentów, dźwięk mikrofonu użytkownika i innych osób. Aktualnie LMA obsługuje przeglądarkę Chrome oraz aplikacje Zoom i Amazon Chime - wkrótce też Microsoft Teams i WebEx.