SIGN UP

AI & NLP conference

IV edition online October 25-26 2021

Home
Agenda

30 +

speakers

4

parallel

tracks

500

participants

12

workshops

C4P

State-of-the-art Knowledge

Talk to field experts, scientists and PolEval competition winners to discuss state-of-the-art knowledge in the area of AI and NLP.

Exchange ideas and talk business with participants both from academia and industry.

Science meets Business

Conference is collocated With PolEval 2021 Competition.

PolEval Competition

Bring your notebook and take part in one of 12 AI & NLP related workshops to quickly gain hands-on knowledge on current methods and technologies.

Hands-on workshops

Previous editions

In the previous editions of this conference, over 300 entrepreneurs and scientists took part, having the opportunity to hear over 60 presentations. This year's edition will be attended by over 500 people, including entrepreneurs, professionals and start-up initiators.



AI&NLP 2018 AI&NLP 2019 AI&NLP 2020


Day 1

/ 25 October 2021 / conference

10:00 - 10:15

Conference Opening

10:15 - 11:00

plT5: uniwersalny model językowy

Dariusz Kajtoch, Allegro

Podczas prezentacji opowiem o plT5, modelu ogólnego przeznaczenia opartego o architekturę transformer i wytrenowanego na potrzeby rozwiązywania różnorodnych zadań tekstowych dla języka polskiego. Przedstawię wyniki jego skuteczności na rozmaitych zadaniach począwszy od zmierzenia ogólnej wiedzy dla języka polskiego z wykorzystaniem benchmarku KLEJ a skończywszy na zadaniach specjalistycznych takich jak tłumaczenie i generowanie streszczeń. Pokażę jak na tych zadaniach radzą sobie inne modele tego typu przygotowane dla języka polskiego. Na koniec opowiem w jakich zadaniach biznesowych wykorzystujemy T5 w Allegro.

MACHINE LEARNING / ARTIFICIAL INTELLIGENCE TRACK

11:10 - 11:45

Visual Probing: Cognitive Framework for Explaining Self-Supervised Image Representations

Witold Oleszkiewicz

We introduce a novel visual probing framework for explaining the self-supervised models by leveraging probing tasks employed previously in natural language processing. The probing tasks require knowledge about semantic relationships between image parts. Hence, we propose a systematic approach to obtain analogs of natural language in vision, such as visual words, context, and taxonomy. Our proposal is grounded in Marr's computational theory of vision and concerns features like textures, shapes, and lines. We show the effectiveness and applicability of those analogs in the context of explaining self-supervised representations.

11:55 - 12:30

Gianmario Spacagna, Brainly & Artur Zygadło, deepsense.ai

Automated Content Quality Assurance for Crowdsourcing Educational Platforms

The success of social learning platforms strongly depends on the quality of contents created and maintained by the community. Being able to filter only the relevant and high-quality contents is crucial for guaranteeing the trust & safety for your users, enabling the personalization of their learning experience, as well as avoiding gamification side effects.


In this talk we will analyze the Brainly Social Q&A platform that allows more than 350M students worldwide to ask questions and seek help in their homework and studying. We will dig deeper into the ACQUA (Automated Content Quality Assurance) system that was developed to provide a near real-time feed of text classifications over a dozen of labels such as toxicity, spam, gibberish, incomplete questions, non-educational questions, personal identifiers, grammar mistakes, presence of irrelevant details, readability, wrong language, bad subjects. The blacklist feed is then used for content reporting and moderation as well as for other downstream tasks such as recommender systems, information retrieval, users reputation models, or other data analytics scopes.


The talk will cover some modeling and engineering aspects of building such NLP systems and is accessible without any prior knowledge in the field.In particular we will cover the definition of content quality from an educational point of view, the challenges of correctly classifying those contents using machine learning, a few tips on how to leverage the state-of-the-art of NLP, and some MLOps data-centric aspects related to data labeling and human-in-the-loop workflows.

12:40 - 13:15

Marcin Mosiołek

Unsupervised Methods To Learn Text Embeddings

Semantic search engines aim to capture the exact intent of a user's query and find the answer, taking into account not only the match between individual words but also the actual meaning and contextual information. The key task in constructing such a solution is to develop a model that can capture the critical information contained in the text and transform them into vector space. The problem seems to be well covered in the literature regarding the common English language, as many papers, models, and datasets have been released over the last years. Things get slightly more complicated when it comes to a specific domain of some less-popular language, such as court decisions written in Polish. There are no existing models or datasets that could be directly leveraged to solve the task in such circumstances. Our team has recently tackled such a problem in nearly complete unsupervised settings. The talk aims to introduce the ways one could handle similar challenges based on our experience.

L U N C H

13:43 - 14:20

Maciej Szymkowski

Machine learning and artificial intelligence in biometrics

Nowadays, we can observe diversified treats related to safety of our databases. Everyday one can hear about data leaks. The most important question is how to prevent them. There are several solutions that are based on passwords, intelligent cards... etc. However, neither of them is efficient enough. It is why, we should also consider biometrics as the proper way to secure our data. In this case, we do not need any specific passwords or cards - our measurable traits are enough to validate our identity. During this presentation, we will present not only the basics of biometrics but also a way to integrate it with Machine Learning and Artificial Intelligence - it was proven that usage of such solutions can increase the accuracy of biometrics algorithms.

14:30 - 15:05

Patryk Pilarski

Weights & Biases - monitoruj swoje eksperymenty

Każdy kto kiedykolwiek brał udział w projekcie związanym z uczeniem maszynowym wie jak łatwo można pogubić się w wykonywanych eksperymentach oraz wypróbowanych już podejściach i modelach. Na szczęście na rynku pojawia się coraz więcej narzędzi które pozwalają na monitorowanie postępujących prac. Jednym z nich jest Weights & Biases - platforma która oferuje przystępny interfejs oraz szerokie możliwości monitorowania i wizualizacji eksperymentów. W takcie wystąpienia dowiesz się jak łatwo dodać monitoring do własnych projektów.

15:15 - 15:50

Prognozowanie popytu - podobieństwa i różnice między branżami

Paweł Ekk-Cierniakowski, Predica

Potrzeba prognozowania popytu dotyczy większości firm ze względu na ograniczenia przestrzeni do magazynowania produktów gotowych, jak również surowców oraz kosztów utraconej sprzedaży przez brak zapewnienia odpowiedniego poziomu dostępności produktów. Podczas sesji zostanie zaprezentowane podejście do prognozowania w różnych branżach, takich jak m.in. farmacja oraz moda.

16:00 - 16:35

Paulina Sanak

Data Storytelling jest prostszy niż myślisz - wskazówki dla zabieganych?

BIG DATA / CLOUD TRACK

11:10 - 11:45

Maria Preyzner, Bartosz Stroń

Great Expecations - czyli jak walidować dane i nie oszaleć

Walidacja danych. Od problemów jakie napotkaliśmy w firmie po ich rozwiązanie w formie użycia biblioteki Great Expecations (od developmentu do wpięcia w CI).

11:55 - 12:30

Łukasz Bielak

Nowoczesna platforma danych - czyli jak z big data zrobić użytek w dużej organizacji
Posiadanie dużych wolumenów danych w organizacji często wynika z charakterystyki jej biznesu. Kolejne rekordy trafiają do baz z różnych systemów. Im jest ich więcej, tym trudniej umieścić je w jednym miejscu, oczyścić i zdemokratyzować. Co prawda mnogość technologii do obsługi dużych zbiorów danych jest ogromna, jednak gdy przychodzi do ich analizy okazuje się, że wydajność jest niezadowalająca i użytkownicy niechętnie z nich korzystają. Kolejnym problemem może być brak inżynierów, którzy będą transformować dane i utrzymywać infrastrukturę. Może okazać się, że zapotrzebowanie na nowe funkcjonalności znacząco wykracza poza możliwości zespołu deweloperskiego. Jak do tego zadania podchodzą największe organizacje i jakie są tego rezultaty? Na sesji przedstawię nowoczesne podejścia do platform danych klasy enterprise takie jak Data Mesh czy Data Lakehouse.

12:40 - 13:15

Jak przetwarzać terabajty danych tekstowych - case study Jednolitego Systemu Antyplagiatowego

Marek Kozlowski, Laboratorium Inżynierii Lingwistycznej w OPI

JSA to jedyny bezpłatny system antyplagiatowy w Polsce, który przeznaczony jest dla promotorów prac. Od 2019 roku pisemne prace inżynierskie, licencjackie, magisterskie i doktorskie dopuszczone do obrony muszą być przeanalizowane za pomocą JSA. W tym czasie zbadano w JSA już prawie 1 milion prac dyplomowych i doktorskich. W czasie pierwszych dwóch lat istnienia systemu dotarł on do wszystkich polskich uczelni i instytutów naukowych w Polsce, czyli uzyskał prawie 100 tys. użytkowników w około 400 podmiotach naukowych. Skala systemu jest też ujęta w wolumenie różnorodnych danych m.in. korpus stron internetowych, repozytorium prac dyplomowych, repozytorium publikacji Otwartego Dostęp . Rozmiar wszelakich danych używanych w systemie liczony jest ponad 80 TB. W prezentacji postaramy się zobrazować z jakimi problemami BigData się spotkaliśmy na poziomie ich przetwarzania, przechowywania, czy ostatecznego przeszukiwania. Postaram się też ująć kilka aspektów uczenia maszynowego jakie wykorzystujemy w powyższym systemie.

L U N C H

13:45 - 14:20

Kamil Mrzygłód

DataFinOps w chmurze - czy to w ogóle możliwe?

Przetwarzanie danych w chmurze to wyzwanie nie tylko techniczne. Podczas pracy z dużymi wolumenami danych należy brać jeszcze pod uwagę takie aspekty jak zapewnienie odpowiedniego poziomu bezpieczeństwa, backup czy georeplikacja. Ile tak naprawdę to kosztuje? Jak kontrolować wydatki? Co możemy zrobić, aby płacić za faktyczne zużycie a nie nasze niedopatrzenia? Jakie koszty ukrywa przez nami nas dostawca chmury? Na te wszystkie pytania (i nie tylko) będę starał się odpowiedzieć najlepiej jak tylko potrafię.

14:30 - 15:05

Building IoT edge solutions at scale - why poc is not enough?

Paweł Fiderek

IoT is considered as a "for fun IT activity", but what we've learned from industry it is not a melody of the future, this is a real must have right now! When building an IoT solution you will find a problems that cannot be identify when playing with temperature or humidity sensors - how to generate 10K certificates? How to monitor a large fleet of devices? How to do AI on the cloud and on the edge where resources are really limited? During this session you will find answers for this and many, many more interesting questions!

15:15 - 15:50

NLP for videos: Understanding customers' feelings in videos

Albert Lewandowski

Currently there are more and more created videos distributed via multiple social media channels. It becomes more and more important to monitor all of them by companies to verify their customers' feedback, reviews, opinions. During the talk, we talk about extracting text from videos, analyzing language and prepare robust, scalable infrastructure for it. The idea behind platform is about having the mix between managed and self-managed service for Big Data processing. The keynote shows the case study of the MVP of the platform for marketing companies.

16:00 - 16:35

Process Mining - next big thing?

Kamil Żbikowski, mBank

Process mining jest częścią “Process Science”, dziedziny która zajmuje się szeroko pojętą analizą i optymalizacją procesów. Jest równoległą grupą metod do systemów Robotic Process Automation czy aplikacyjnych zastosowań sztucznej inteligencji. Rozwija się dynamicznie zarówno w obszarze badań jak i zastosowań komercyjnych. Podobnie jak w przypadku wdrożeń systemów RPA i AI na drodze do sukcesu stają: systemy legacy, rozproszenie danych w organizacji czy braki systemów flow’owych w zakresie raportowania zdarzeń.W prezentacji przedstawione zostaną najbardziej istotne zagadnienia process miningu: process discovery, conformance checking oraz resource allocation. Opowiemy też o naszych doświadczeniach i przeszkodach, które napotkaliśmy na swojej drodze wdrażając komercyjny sytstem PM. W założeniach powinien on działać na zasadzie plug&play, podczas gdy w praktyce przedsięwzięcie okazało się znacznie bardziej wymagające.

NATURAL LANGUAGE PROCESSING TRACK

11:10 - 11:45

Budowa referencyjnego korpusu procesów obsługowych i jego zastosowania w tworzeniu systemów dialogowych

Piotr Pęzik, Computational and Corpus Linguistics Laboratory at University of Lodz

Diabiz to opracowywany w ramach projektu CLARIN-BIZ korpus nagrań i anotowanych transkrypcji dialogów telefonicznych wzorowanych na procesach obsługi klientów w branży m.in. bankowej, energetycznej, telekomunikacyjnej i innych. W skład korpusu wchodzi ponad 2500 zweryfikowanych transkrypcji dwukanałowych nagrań rozmów (ok. 250 godzin) prowadzonych przez ponad 150 osób według kilkuset wariantów scenariuszy. Podczas wystąpienia omówione zostaną kwestie metodologii budowy korpusu (np. autentyczność), zakres jego anotacji oraz zastosowania w tworzeniu rozwiązań z zakresu: formatowania rozpoznań ASR (odtwarzanie interpunkcji), NLU (chatboty/ voiceboty) oraz odtwarzania struktury dialogów.

11:55 - 12:30

Ryszard Tuora, IPI PAN

Konstrukcja polskiego systemu do odpowiadania na pytania w ramach infrastruktury CLARIN

Automatyczne odpowiadanie na pytania jest przez niektórych teoretyków uważane za problem AI-complete, tj. pełne rozwiązanie takiego zadania, musiałoby równocześnie doprowadzić do powstania prawdziwej sztucznej inteligencji. W tym wystąpieniu dowiemy się jak można "ugryźć" ten problem wykorzystując cały szereg technik NLP. Jako przykładowe rozwiązanie omówimy system QA powstający w ramach architektury CLARIN.

12:40 - 13:15

Stanisław Bogdanowicz

Automatyzacja wykrywania stronniczości w polskich mediach
Ilość informacji rozpowszechnianych każdego dnia przerasta obecnie wykorzystywane możliwości ich weryfikowania oraz analizowania. Badanie prezentuje sposoby zastosowania metod NLP oraz ML w celu zautomatyzowanej detekcji stronniczości w polskich mediach. Pierwsza jego cześć dotyczy ilościowej analizy pokrycia tematów przez profile mediów na Twitterze poprzez wyselekcjonowanie słów kluczy oraz pogrupowanie tweetów za ich pomocą. W drugiej części przeprowadzona jest próba wykorzystania modeli typu sentiment analysis do wykrycia nastawiania poszczególnych autorów w stosunku do wybranych tematów. Badanie obejmuje posty opublikowane na Twitterze przez 12 zweryfikowanych profili najbardziej wpływowych mediów w Polsce w okresie od 01.07.2020 do 31.12.2020. Jego zadaniem jest wpracowanie metodologii skutecznego i automatycznego analizowania stronniczości w polskich mediach.

L U N C H

13:45 - 14:20

Analysis of sentiment of COVID19-related articles from two of

the biggest polish media news websites: TVN24 and TVP Info

Jedrzej Miecznikowski, Wiktoria Dołębska

In this project, we examine the sentiment of over 4500 COVID-19-related articles coming from the two media news websites in the time period from July 2020 to June 2021. We want to see if and how they differ within one medium over time, as well as examine potential differences between the two media. In order to get more specific results, based on our initial intuitions, the articles were categorized in terms of whether they were dealing with national or world-wide affairs. Additionally, we use several different methods available for assessing Polish sentiment and compare them. We find significant differences between methods, but our hypotheses about differences between outlets, both in time and by category, are not confirmed. We propose next steps for sentiment assessment of Polish newspaper articles and highlight the importance of such research.

14:30 - 15:05

Darek Kłeczek, Procter & Gamble

A-muse. Polish text generation with PapuGaPT2
You've all probably seen amusing examples of text generation with GPT2/3. Since we now have a Polish GPT2 language model, let's deep dive into text generation. We will review the use cases, starting with creative ones, but also covering fake news, synthetic datasets and few or zero shot inference. We will review the inner workings of a language model. We'll discuss why greedy decoding doesn't usually work well and explain alternatives such as beam search, temperature scaling, top-k/top-p sampling. Finally, we'll look at some of the risks and biases encoded in the model and discuss how they can be mitigated.

15:15 - 15:50

Filip Graliński, Applica.ai

Bez strojenia. Suflowanie, zadawanie pytań i inne sposoby praktycznego wykorzystania neuronowych modeli języka

W ciągu ostatnich lat w dziedzinie przetwarzania języka naturalnego wykształciła się praktyka pretrenowania dużych modeli Transformer (GPT-2, RoBERTa, T5), a następnie ich dostrajania (wraz z wyspecjalizową głowicą) na potrzeby konkretnych zadań. Wystąpienie dotyczy najnowszych metod wykorzystania neuronowych modeli języka wykraczających poza ten paradygmat (tj. bez dostrajania): suflowania (prompting) czy zadawania pytań. Pokażę również, jak kreatywnie można wykorzystać prawdopodobieństwa zwracane przez (niedostrojone) modele języka.

16:00 - 16:35

Adam Zadrożny

Poszukiwanie redundancji i punktów zapalnych w Polskim prawie - NLP a prawo

Polskie prawo i problemy z jego stosowaniem jest tematem na grubą książkę. Jeśli wypełnialiście PIT i próbowaliście czytać przepisy, to wiecie o czym mówię ;-) Wiele spraw sądowych rozbija się o definicje, co nie jest zaskakujące zważywszy, że na przykład definicji działalności gospodarczej jest w polskim prawie kilka. Czasie wystąpienia chciałbym pokazać jak metody NLP mogą pomóc w wyszukiwaniu podobnych fragmentów prawa i pokazywaniu różnic między podobnymi fragmentami. I jak potem z takich małych klocków można starać się ustalić, gdzie leżą punkty zapalne i jak nlp mogło by pomóc w kontroli jakości prawa.

POLEVAL TRACK - TBA

Day 2

/ 26 October 2021 / workshops

MACHINE LEARNING / ARTIFICIAL INTELLIGENCE TRACK

8:30 - 10:15

Maciej Kowalski, Laboratorium Inżynierii Lingwistycznej w OPI

Uczenie metryk odległości

Mierzenie podobieństwa jest jednym z kluczowych aspektów informatyki i przetwarzania danych. Wśród metod porównywania różnych obiektów możemy wymienić na przykład mierzenie odległości za pomocą miar: Euklidesowej, kosinusowej (w przypadku porównywania dwóch wektorów), Jaccarda (w przypadku mierzenia podobieństwa dwóch zbiorów). Sposobem na mierzenie podobieństwa dwóch sygnałów (procesów zachodzących w czasie) może być na przykład obliczenie współczynnika korelacji: Pearsona, Spearmana. Przedstawione sposoby nie mają jednak zastosowania w jeśli chodzi o porównywanie obrazów, kiedy stawiamy sobie za zadanie określenie, czy dwa obrazy przedstawiają podobne czy też różne obiekty.

10:25 - 12:10

Bartosz Szabłowski

Praktyczne uczenie maszynowe dla szeregów czasowych w Pythonie

Warsztat ma na celu przedstawienie eksploracji oraz krótkiego przeglądu metod prognozowania szeregów czasowych oraz sposobów wykorzystania tej wiedzy w Pythonie. Rozpatrywany będzie problem szeregu czasowego z zmiennymi objaśniającymi. Porównane zostaną modele statystyczne (ARIMAX) oraz Uogólniony Model Addytywny (Prophet), jak i również model uczenia maszynowego dzięki zastosowaniu inżynierii cech, która przekształci szereg czasowy do uczenia nadzorowanego. Ostatnim modelem będzie rekurencyjna sieć neuronowa. Ponadto przedstawione będzie wdrożenie modelu, aby można go było stosować produkcyjne. Autor również podzieli się swoimi doświadczeniami dotyczącymi pracy z szeregami czasowymi w środowisku biznesowym.

L U N C H

12:45 - 14:30

Marcin Szeliga

Responsible AI Widgets

Responsible-AI-Widgets extends the Interpret-Community and Fairlearn repositories and provides user interfaces for model interpretability and fairness assessment of machine learning models. It contains a collection of model and data exploration and assessment user interfaces that enable better understanding of AI systems. Together, these interfaces empower developers and stakeholders of AI systems to develop and monitor AI more responsibly. During this session we will use Responsible-AI-Widgets to interpret models and assess their errors and fairness issues.

14:40 - 16:25

Aleksander Molak, Lingaro

Uncertainty? Hands-on Bayesian neural networks with Tensorflow and Tensorflow Probability

From medical research to small-data scenarios, whenever we want to understand how sure the model is about its own predictions, modeling uncertainty can be immensely helpful. During the workshop we’ll learn how to build Bayesian neural networks using Tensorflow and Tensorflow Probability to model uncertainty. At the end of the workshop, you’ll have practical knowledge how to create basic types of Bayesian neural network using Tensorflow ecosystem and you'll be able to apply these techniques to your own projects.To fully benefit from the workshop you need:- good practical knowledge of Python- practical understanding of deep learning principles- experience using Tensorflow (recommended) or other contemporary deep learning framework- good understanding of basic probability and basic distributions- familiarity with Bayes' theorem.

BIG DATA / CLOUD TRACK

8:30 - 10:15

Q-learning - implementacja od podstaw

Waldemar Kołodziejczyk

Warsztat będzie polegał na implementacji od zera Agenta uczenia ze wzmocnieniem, wykorzystując algorytm Q-learning. Zaprezentowany problem będzie osadzony w środowisku symulacyjnym OpenAI-Gym, na którego przykładzie zostanie omówiona charakterystyczna interakcja Agenta ze środowiskiem. Niniejszy warsztat jest świetną okazją dla tych, którzy chcą rozpocząć zgłębianie algorytmów RL, a nie lubią korzystać z modeli jak z black box'ów. Do implementacji rozwiązania zostaną wykorzystane jedynie Python, biblioteka numpy i środowisko symulacyjne OpenAI-Gym.

10:25 - 12:10

TBA

L U N C H

12:45 - 14:30

TBA

14:40 - 16:25

TBA

NATURAL LANGUAGE PROCESSING TRACK

8:30 - 10:15

Paweł Ekk-Cierniakowski, Predica

Czy dane w systemie są właściwe - porównanie z rozpoznawaniem formularzy
Podczas sesji zostanie zaprezentowane pozyskiwanie danych z dokumentów z wykorzystaniem Form Recognizer w Azure wraz z porównaniem z danymi tabelarycznymi na podstawie metod porównywania ciągów znaków, które zostanie przeprowadzone za pomocą bibliotek języka Python.

10:25 - 12:10

Alina Wróblewska

COMBO: System wstępnego przetwarzania języka naturalnego
Przedmiotem warsztatów będzie prezentacja COMBO, czyli neuronowego systemu wstępnego przetwarzania języka naturalnego. Oprócz predykcji kategorialnych cech morfoskładniowych tokenów (tj. tagów, lematów, znaczników morfologicznych) oraz analiz składniowych całych zdań (tj. drzew zależnościowych), COMBO zwraca reprezentacje wektorowe tych predykcji, ekstrahując je z warstw ukrytych. COMBO jest łatwym do instalacji pakietem Pythonowym z opcją automatycznego pobierania pretrenowanych modeli dla ponad 40 języków.

L U N C H

12:45 - 14:30

Patryk Pilarski

Transfer learning w NLP - dopasuj model do własnego problemu

Modele językowe oparte na transformerach zelektryzowały świat NLP. Sieci tego typu wymagają jednak niemałych zasobów, co powoduje że wytrenowanie własnego modelu od zera jest poza zasięgiem wielu entuzjastów. Na szczęście możliwe jest znalezienie licznych wytrenowanych już modeli tego typu, a transfer learning pozwala na dopasowanie ich do własnych potrzeb. W ramach warsztatu dowiesz się jak pozyskać oraz dotrenować tego typu sieć tak aby radziła sobie z nowym zadaniem. Problemem na którym opierać będzie się warsztat będzie klasyfikacja tekstu w języku polskim. Wszystko to z wykorzystaniem intuicyjnych i przystępnych narzędzi - bibliotek PyTorch i Transformers *aby móc skorzystać z warsztatu konieczne jest posiadanie konta na Gmailu aby móc sięgnąć po zasoby dostępne w Google Colab.

14:40 - 16:25

TBA

Buy Tickets

Conference Pass


Participation in the conference day 10/25 (live discussion panels and Q&Q sessions)


1-year access to video recordings from all speeches


Access to a dedicated Slack channel





̶5̶9̶9̶ 399 PLN
Sign Up Now & Get 33% Off

Conference + Workshops Pass

Participation in the conference day 10/25 (live discussion panels and Q&Q sessions)


Online access to workshops 10/26


1-year access to video recordings from the conference speeches


Access to a dedicated Slack channel

Sign Up Now & Get 22% Off
̶8̶9̶9̶ 699 PLN

Premium Pass

Sign Up Now & Get 14% Off
̶1̶5̶9̶9̶ 1399 PLN

Online access to speeches 10/25 (live discussion panels and Q&Q sessions)


Online access to workshops 10/26


Access to video recordings from all speeches


Basic access to the NLP course in polish (40h of training videos)

Keep In Touch

Subscribe Us to get the information about the next editions of NLPday and our others events.

The administrator of your personal data is Sages sp. z o.o. with its registered office in Warsaw, Poland at Nowogrodzka 62c Str., registered by the District Court for the Capital City of Warsaw, XIII Commercial Division of the National Court Register under the number KRS: 0000313297, with a share capital of PLN 50 000 paid-in full. Tax ID: 1132737407. REGON: 141560043.

Providing personal data is voluntary. Your personal data will be kept from the day of your consent and until you withdraw your consent – if you agree to provide you with commercial information from Sages sp. z o.o.

You have the right to access, correct and delete your personal data. In the matter of personal data protection, the Administrator may be contacted in writing by e-mail info@nlpday.pl.

FAQ

How can I register?

To register for the event, you will have to complete the appropriate registration form here and pay a fee. If you are the PolEval 2021 participant, you will receive a promotional code to register for free.

I'm a PolEval 2021 participant. How can I register for free?

You should get an email with information about the event and registration instructions. If not, please write to us and ask for a promotional code.

How to get the invoice?

How to become our partner?

Yes, a confirmation and tax invoice will be issued automatically upon registration.

Will the event be recorded?

All talks will be recorded and available for event attendees.

Is WiFi network available at the venue?

Yes, WiFi is provided for the participants.

Contact us to learn about our packages.

Is it possible to park a car at the venue?

The Institute has a car park for its guests. Entrance to the parking is located in Władysława Warneńczyka Str. (access from Jana Kazimierza Str.). Please remember that parking space is limited. Street parking is difficult to find.

Organizers

Our Sponsors

Sponsorship at the AI & NLP DAY 2021 provides a unique opportunity for any organisation associated with the IT industry to achieve outstanding exposure to a audience of professionals from scientific and business environment. It is also an opportunity for superb networking and entertaining clients. Please email us for further information and latest availability.

Media Partners 2021

Partnership at the AI & NLP DAY 2020 provides a unique opportunity for any organisation associated with the IT industry to achieve outstanding exposure to a audience of professionals from scientific and business environment. It would be a great pleasure to welcome you as a media partner of NLPday 2020. Please email us for further information.

Venue

Online

Due to coronavirus, NLPDAY 2021 changed to fully online virtual format.

Contact us

All speeches will be recorded and shared with the attendees after the event.

Records

© 2020 Sages