Uczenie Maszynowe
z zastosowaniem w NLP

Dwa dni, 6 modułów treningowych, 5 fantastycznych prelegentów oraz intensywna nauka na przykładach

27-28 LUTY 2020 GDAŃSKI PARK NAUKOWO TECHNOLOGICZNY
00
DNI
00
GODZIN
00
MINUT
00
SEKUND
Zarezerwuj miejsce

Cel szkolenia

Wdrożenie do specyfiki projektów Machine Learning/Natural Language Processing. Przegląd technik, wprowadzenie do technologii przetwarzania danych, zapoznanie z możliwościami NLP, omówienie zastosowania Uczenia Maszynowego oraz praktyczne zadania – testowanie metod zaawansowanej analizy danych.

Jakiej wiedzy zaczerpiesz?

Warsztaty mają przybliżyć nowoczesne metody i technologie przetwarzania i analizy danych tekstowych wykorzystywanych do zaawansowanej analizy danych, automatyzacji procesów. Dzięki warsztatom poznasz najnowsze trendy w NLP, zrozumiesz co jest, a co nie jest możliwe, nauczysz się podejść stosowanych w lingwistyce komputerowej.

Czego możesz oczekiwać?

Sporo teorii i ćwiczeń praktycznych które pozwolą Ci lepiej zrozumieć jakich umiejętności potrzeba by realizować projekty NLP, jakie rzeczy są możliwe a jakie są nadal poza zasięgiem uczenia maszynowego, jak oceniać skomplikowanie projektów ML, poznanie podstawowych narzędzi i metod pracy – to wszystko powinno pozwolić lepiej rozumieć potencjalne projekty DATA SCIENCE i uczenia maszynowego związanego z tekstem.

Do kogo skierowane jest szkolenie?

Szkolenie skierowane jest do: programistów, którzy spotykają się z projektami ML w odniesieniu do danych tekstowych ale ich doświadczenie nie pozwala na zastosowanie właściwych technik, analityków, którzy chcą lepiej rozumieć jakie możliwości daja najnowsze rozwiązania ML/NLP i dzięki temu rozbudować swój warsztat analityczny o narzędzie analizy danych tekstowych managerów którym brakuje wiedzy związanej z uczeniem maszynowym w pracy z danymi tekstowymi w projektach z jakimi spotykają się w pracy.

Jakie są wymagania wobec uczestników?

Minimalne doświadczenie z programowaniem, motywacja do poznania technik ML/NLP. Parametry szkolenia 2*8 godzin (2*7 godzin netto) wykładów i warsztatów (z wyraźną przewagą warsztatów). Dwa dni, dwa bloki tematyczne. Wielkość grupy: maks. 15-20 osob.

Poznaj naszych prowadzących

Piotr Pęzik, dr hab.

Wykładowca na Uniwersytecie Łódzkim, Kierownik Zakładu Językoznawstwa Korpusowego i Komputerowego.

Członek zespołu pracującego nad NKJP.

Pracował nad projektami w zespole Text Mining dla Europejskiego Instytutu Bioinformatyki w Cambridge, oraz dla Institut für Deutsche Sprache, Mannheim.

Ponad 40 publikacji z zakresu lingwistyki korpusowej i obliczeniowej, wyszukiwania i pozyskiwania informacji.

Jakub Kaliski

Skończył Politechnikę Gdańską.

Od ponad 7 lat związany z Voicelab.AI, gdzie przewodzi rozwojowi narzędzi wykorzystujących głębokie sieci neuronowe.

Posiada kilkuletnie doświadczenie w trenowaniu sieci neuronowych na dużych zbiorach danych.

Jego celem jest wdrożenie najlepszych rozwiązań do produktów firmy.

Łukasz Kobyliński, dr inż.

Chief Science Officer w Sages, Data Scientist w SigDelta oraz adiunkt w Instytucie Podstaw Informatyki PAN, gdzie prowadzi projekty w Zespole Inżynierii Lingwistycznej.

Członek Rady Programowej studiów podyplomowych Big Data realizowanych przez firmę Sages oraz Politechnikę Warszawską oraz opiekun merytoryczny bootcampów Kodołamacz.pl.

Od wielu lat zajmuje się analizą danych i uczeniem maszynowym, początkowo w odniesieniu do obrazów, a obecnie w zastosowaniu do przetwarzania języka naturalnego.

Szczególnie zainteresowany lingwistyką korpusową, analizą tekstu na poziomie morfoskładniowym i semantycznym, a także efektywnym przetwarzaniem dużych zbiorów danych.

Marcin Świniarski

Koło Naukowe AI Gradient.

W grupie Artificial Intelligence Product Group firmy Intel pracuje nad dedykowanymi procesorami pod trenowanie sztucznych sieci neuronowych.

W wolnym czasie rozwija projekty oparte o uczenie ze wzmocnieniem, systemy rekomendacji, widzenie komputerowe oraz robotykę.

Dariusz Piotrowski

Koło Naukowe AI Gradient.

Praktyczną wiedzę z zakresu machine learningu, poza uczelnią i kołem naukowym Gradient, zdobywał na stażu w Amazonie, w Cambridge oraz w firmie AI Factory.

Wkrótce pracownik Gdańskiego Amazona na pozycji Applied Scientist w dziale researchu.

Agenda

Szczegółowe treści szkoleń znajdziesz pod Agendą.

Dzień 1

sala 129 (I piętro)
  • Wprowadzenie do NLP

    Łukasz Kobyliński

  • Przerwa na obiad

    Posil się przed porządną dostawą kolejnej porcji wiedzy!

  • Wprowadzenie do ML

    Marcin Świniarski

  • Podstawy sieci konwolucyjnych

    Dariusz Piotrowski



Dzień 2

sala 002 (parter)
  • Praktyczne elementy uczenia maszynowego

    Piotr Mazur

  • Podstawy sieci typu LSTM i transformer w NLP

    Jakub Kaliski

  • Przerwa na obiad

    Posil się przed porządną dostawą kolejnej porcji wiedzy!

  • Semantyka dystrybucyjna i klasyfikacja tekstów, ćwiczenia praktyczne

    Piotr Pęzik

Poznaj szczegóły treści szkoleń

Wprowadzenie do przetwarzania języka naturalnego (NLP)

Dlaczego warto zajmować się NLP? Jakie problemy może rozwiązać? Dlaczego NLP jest trudne, szczególnie w kontekście języka polskiego? Jakie są podstawowe zadania NLP?

Semantyka dystrybucyjna

Wektorowe reprezentacje słów i tekstów, word2vec, zanurzenia kontekstowe. Przykłady zastosowań w przetwarzaniu języka, pośrednie i bezpośrednie, np. kategoryzacja tekstów, zdań, analiza wydźwięku.

Podstawy przetwarzania języka polskiego z wykorzystaniem frameworku spaCy

Podstawy przetwarzania języka polskiego z wykorzystaniem frameworku spaCy Framework spaCy - wraz z szerokim i wciąż rosnącym wachlarzem wtyczek i innych rozszerzeń - zapewniają możliwości dla szerokiego zakresu zadań w języku naturalnym. Stał się on jedną z najczęściej używanych bibliotek języka naturalnego w Pythonie do zastosowań przemysłowych i cieszy się dość dużym poparciem społeczności.

Wprowadzenie do lingwistyki komputerowej

W jaki sposób można stosować metody uczenia maszynowego w NLP w kontekście takich zadań jak: znakowanie morfosyntaktyczne (morphosyntactic tagging), rozpoznawanie jednostek nazewniczych (named entity recognition), analiza wydźwięku (sentiment analysis), ujednoznacznianie sensu słów (word sense disambiguation)

Klasyfikacja tematyczna

Metody ze słabym nadzorem z wykorzystaniem reprezentacji wektorowych. Metody nadzorowane: płytkie i głębokie sieci neuronowe: FastText, CNN. Trenowanie i ewaluacja skuteczności klasyfikatorów na przykładowych zbiorach danych. Nowoczesne metody i technologie przetwarzania i analizy danych wykorzystywanych do zaawansowanej analizy danych, automatyzacji procesów Wdrożenie do specyfiki projektów ML/NLP. Przegląd technik, wprowadzenie do technologii przetwarzania danych, zapoznanie z możliwościami NLP, praktyczne zadania z tekstem.

Wprowadzenie do Uczenia Maszynowego

Podczas kursu zostaną poruszone tematy takie jak:

  • Podstawowe modele uczenia maszynowego
  • Czym są i jak działają sztuczne sieci neuronowe?
  • Podstawowe paradygmaty uczenia sztucznych sieci neuronowych
  • Rewolucja Uczenia Głębokiego - dlaczego teraz? Gdzie jesteśmy i dokąd zmierzamy?

Część praktyczna kursu: - Model biznesowy - implementacja architektury sztucznej sieci neuronowej, która pozwoli ocenić, czy klient banku będzie chciał zrezygnować z jego usług.

Praktyczne aspekty uczenia maszynowego

Hiperparametry, dobór metryk, porównywanie modeli, augmentacja i generalnie co zrobić żeby nasz model miał szanse zadziałać w prawdziwym świecie? Jak wybrać odpowiedni model dla naszego problemu i ocenić jego skuteczność, a następnie co zrobić, aby wycisnąć z niego jak najwięcej? Innymi słowy, jak przejść od modelu, który rozróżnia koty od psów, do działającego produkcyjnie.

Wstęp do sieci konwolucyjnych

Prezentacja oraz krótki hands-on na temat sieci konwolucyjnych, zwanych inaczej splotowymi. Jest to specjalny rodzaj sieci, których założenia mają podstawy w sposobie działania ludzkiego wzroku. Przejdziemy przez ich zastosowania w uczeniu maszynowym, wady i zalety oraz jakie mają perspektywy na przyszłość. Z uwagi na najczęstsze zastosowania w wizji komputerowej prezentacja będzie skupiała się na tej dziedzinie.

Podstawy sieci typu LSTM i transformer w NLP

Rekurencyjne sieci neuronowe typu LSTM oraz architektura Transformer to aktualnie najczęściej wykorzystywane typy sieci w modelowaniu sekwencyjnym, które pozwoliły na pokonanie barier w wielu problemach NLP. Uczestnicy zapoznają się z tymi architekturami oraz ich zaletami i wadami z perspektywy praktyka. Przybliżone zostaną również modele języka, które są bazą dla wielu rozwiązań NLP.

Nowoczesne metody i technologie przetwarzania i analizy danych wykorzystywanych do zaawansowanej analizy danych, automatyzacji procesów

Wdrożenie do specyfiki projektów ML/NLP. Przegląd technik, wprowadzenie do technologii przetwarzania danych, zapoznanie z możliwościami NLP, praktyczne zadania z tekstem.

Ceny i rezerwacje miejsc


Po prostu wyślij nam maila z tytułem Szkolenie NLP i wybraną opcją. Prześlemy Ci szczegóły.

szkolenia@voicelab.ai

2499zł*

PAKIET PEŁEN

Ciesz się pełnym, dwudniowym szkoleniem wraz z warsztatami oraz możliwością networkingu. Lunch jest do Twojej dyspozycji.

1999zł*

PAKIET PROMOCYJNY

Zniżka za przyprowadzenie kolejnej osoby. Jeśli będziesz zainteresowany, a do tego znasz osoby, które chciałyby uczestniczyć z Tobą, to deal dla Ciebie. Jeśli kolejna osoba zarejestruje się z Twojego polecenia dostanie zniżkę -10%, a Ty możesz kupić bilet w promocyjnej, niższej cenie.


* ceny netto


Konto bankowe


32 2490 0005 0000 4530 3600 3869

Voicelab.AI sp. z o.o.

Poznaj miejsce warsztatów

Jak dojechać?

Gdański Park Naukowo - Technologiczny
BUDYNEK "B"
ul. Trzy Lipy 3,
80-172 Gdańsk

Zobacz na mapie

Transport

Autobus (Park Naukowo-Technologiczny) 115 168 283

Autobus (Kurpińskiego) 115 130 131 184 199 210

Pociągi PKP Intercity


Gdzie mogę dowiedzieć się więcej?

VoiceLab.AI
aleja Grunwaldzka 135A,
80-264 Gdańsk
szkolenia@voicelab.ai

Top