학과 세미나 및 콜로퀴엄




2022-04
Sun Mon Tue Wed Thu Fri Sat
          1 2
3 4 5 6 7 8 2 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 2 30
2022-05
Sun Mon Tue Wed Thu Fri Sat
1 2 3 4 5 6 7
8 9 10 1 11 12 1 13 1 14
15 16 17 1 18 19 1 20 21
22 23 24 1 25 1 26 1 27 1 28
29 30 31 1        

구글 Calendar나 iPhone 등에서 구독하면 세미나 시작 전에 알림을 받을 수 있습니다.

Host: 확률 해석 및 응용 연구센터     Contact: 확률 해석 및 응용 연구센터 (042-350-8111/8117)     한국어     2022-05-02 16:23:37
Offline reinforcement learning (RL) refers to the problem setting where the agent aims to optimize the policy solely from the pre-collected data without further environment interactions. In offline RL, the distributional shift becomes the primary source of difficulty, which arises from the deviation of the target policy being optimized from the behavior policy used for data collection. This typically causes overestimation of action values, which poses severe problems for model-free algorithms that use bootstrapping. To mitigate the problem, prior offline RL algorithms often used sophisticated techniques that encourage underestimation of action values, which introduces an additional set of hyperparameters that need to be tuned properly. In this talk, I present OptiDICE, an offline RL algorithm that prevents overestimation in a more principled way. OptiDICE directly estimates the stationary distribution corrections of the optimal policy and does not rely on policy-gradients, unlike previous offline RL algorithms. Using an extensive set of benchmark datasets for offline RL, OptiDICE is shown to perform competitively with the state-of-the-art methods. This is a joint work with Jongmin Lee (UC Berkeley), Wonseok Jeon (Qualcomm), Byung-Jun Lee (Korea U.), and Joelle Pineau (MILA)
Host: 확률 해석 및 응용 연구센터     Contact: 확률 해석 및 응용 연구센터 (042-350-8111/8117)     미정     2022-04-01 15:15:01
Host: 확률 해석 및 응용 연구센터     Contact: 확률 해석 및 응용 연구센터 (042-350-8111/8117)     한국어     2022-05-02 16:22:50
Host: 확률 해석 및 응용 연구센터     Contact: 확률 해석 및 응용 연구센터 (042-350-8111/8117)     한국어 (필요한 경우 영어 가능) ( )     2022-05-16 10:11:46
Host: 확률 해석 및 응용 연구센터     Contact: 확률 해석 및 응용 연구센터 (042-350-8111/8117)     한국어     2022-05-02 16:21:33
Host: 확률 해석 및 응용 연구센터     Contact: 확률 해석 및 응용 연구센터 (042-350-8111/8117)     한국어     2022-05-02 16:19:14
Host: 확률 해석 및 응용 연구센터     Contact: 확률 해석 및 응용 연구센터 (042-350-8111/8117)     한국어     2022-05-02 16:00:32
The boundary of melting ice forms a random interface. So does the frontier of slowing burning pieces of paper. As time changes, the interface evolves in a random fashion. In probability theory, a collection of models often exhibits universal behaviors when the system size or time becomes large. The KPZ universality class comprises 1+1 dimensional probability models that mimic the random growth behavior mentioned above and display particular universal fluctuations.We will overview some of the development in this class that started about two decades ago.
Host: 확률 해석 및 응용 연구센터     Contact: 확률 해석 및 응용 연구센터 (042-350-8111/8117)     미정     2022-05-02 16:20:11
Host: 확률 해석 및 응용 연구센터     Contact: 확률 해석 및 응용 연구센터 (042-350-8111/8117)     한국어     2022-05-02 15:59:14
TBA
Host: 확률 해석 및 응용 연구센터     Contact: 확률 해석 및 응용 연구센터 (042-350-8111/8117)     미정     2022-04-01 15:01:39
Asymptoticswith consideration of ultra-high dimensional data must consider an increasing number of variables, i.e., dimensions, rather than growing the number of observations. High-dimensional asymptotic studies have revealed some unexpected characteristics of data with an exceedingly large number of variables, such as gene expressions. In the context of binary classification, i.e., supervised learning with dichotomous labels, data piling refers to the phenomenon that training data vectors from each class project to a single point for classification. This interesting phenomenon has been a key to understanding many distinctive properties of high-dimensional discrimination. In this talk, high-dimensional asymptoticsof data piling is investigated under equal covariance assumption, which reveals its close connection to the well-known ridged linear classifier. In particular, we show that a negatively ridged discriminant vector can asymptotically achieve data piling of independent test data, essentially yielding a perfect classification. Double data pilingis generalized to heterogeneous covariance models and we propose a data-splitting approach to estimate the direction for the second data piling of test data.
Host: 확률 해석 및 응용 연구센터     Contact: 확률 해석 및 응용 연구센터 (042-350-8111/8117)     미정     2022-04-20 16:51:12
TBA
Host: 확률 해석 및 응용 연구센터     Contact: 확률 해석 및 응용 연구센터 (042-350-8111/8117)     미정     2022-04-01 14:58:47
수학모델은 역사적으로 오래 전부터 다양한 자연현상과 사회현상을 이해하기 위해 고안되어 왔고 순수와 응용에 걸쳐 활발하게 연구되어 온 분야 중 하나이다. 데이터는 4차 산업혁명의 핵심분야인 인공지능과 머신러닝, IoT에 필수 아이템이며 실제 산업이나 일상 속에서 무수히 쏟아져 나오는 핵심 자원이다. 그렇다면 수학모델을 다루는 수학자와 공학자의 시각에서나 데이터를 다루어야 하는 실제 산업현장에서는 이 두 가지가 만났을 때의 시너지를 상상해 볼 수 있을 것이다. 본 강연에서는 데이터와 수학모델이 공존할 수 있을지, 그리고 공존 가능하다면 인공지능분야에서 수학이 풀어야 하는 숙제를, 나아가 다양한 현장의 문제를 해결할 수 있는 중요한 단초를 제공하는 데이터와 수학모델의 공존법을 소개하려고 한다.
Host: 확률 해석 및 응용 연구센터     Contact: 확률 해석 및 응용 연구센터 (042-350-8111/8117)     미정     2022-04-05 09:28:38