Transformes for Time Series: Is the New State of the Art (SOA) Approaching? - Ezequiel Lanza, Intel

  Переглядів 5,530

The Linux Foundation

The Linux Foundation

11 місяців тому

Transformes for Time Series: Is the New State of the Art (SOA) Approaching? - Ezequiel Lanza, Intel
Ezequiel will embark us on a tour of the well-known transformers that are beginning to show their fruits in an environment such as TIME SERIES. What are the challenges and why is it so difficult to use the same architectures that are used for NLP? A tour of the most significant opensource implementations and papers (Informer, spacetimeformer) to finally arrive on an implementation on latency prediction in a Kubernetes cluster vs current SOA showing their pros and cons and explaining where we are now in the The presentation will not go deeper in the technical aspects.

КОМЕНТАРІ
What are Transformer Models and how do they work?
44:26
Serrano.Academy
Переглядів 92 тис.
AI Language Models & Transformers - Computerphile
20:39
Computerphile
Переглядів 323 тис.
Protect The Yacht, Keep It!
15:08
MrBeast
Переглядів 56 млн
ПЕЙ МОЛОКО КАК ФОКУСНИК
00:37
Masomka
Переглядів 2,9 млн
Эффект Карбонаро и пончики
01:01
История одного вокалиста
Переглядів 8 млн
The Bayesians are Coming to Time Series
53:17
AICamp
Переглядів 21 тис.
Transformers in Time Series: A Survey by Chathurangi Shyalika
43:23
AI Institute at UofSC - #AIISC
Переглядів 5 тис.
How a Transformer works at inference vs training time
49:53
Niels Rogge
Переглядів 44 тис.
Finding Approximately Repeated Patterns in Time Series
1:08:17
Data Intelligence Institute of Paris
Переглядів 10 тис.
TimeGPT Launch | Max Mergenthaler Introduces TimeGPT
11:46
Nixtla
Переглядів 5 тис.
Lecture 13   Time Series Analysis
42:54
Jordan Kern
Переглядів 305 тис.
Lecture 20 - Transformers and Attention
1:10:16
Deep Learning Systems Course
Переглядів 8 тис.
APPLE УБИЛА ЕГО - iMac 27 5K
19:34
ЗЕ МАККЕРС
Переглядів 84 тис.
🤯Самая КРУТАЯ Функция #shorts
0:58
YOLODROID
Переглядів 3,3 млн