시스템 트랙

  • 홈ˆ
  • 프로그램
  • 시스템 트랙

[Session 4] System 1   
▒ 일시 및 장소 : 1.19(목) 16:00~18:00 / 엘가든홀(8층)              좌장 : 엄현상 교수(서울대)

이재진 교수(서울대학교)
2002년 9월 ~ 현재 서울대학교 컴퓨터공학부 교수, 서울대학교 매니코어 프로그래밍연구단 단장

딥 러닝을 위한 확장가능 이종 프로그래밍 모델
강연요약 현재 딥 러닝을 위해 가장 흔하게 이용하는 가속기는 GPU이다. GPU 외에 ASIC, FPGA, Xeon Phi coprocessor 등을 딥 러닝의 가속을 위해 이용하고 있는 회사도 있다. GPU 같은 가속기에 의해 딥 러닝의 성능이 많이 향상되었지만, 대규모 신경망 모델은 아직까지 더 높은 성능을 요구하고 있다. 또, Caffe, CNTK, TensorFlow, Theano, Torch와 같은 딥 러닝 라이브러리가 많이 사용되고 있지만 아직까지 대규모 이종 클러스터의 컴퓨팅 파워를 충분히 다 사용하지 못하고 있다. 이들 라이브러리는 소스가 공개되지 않은 cuDNN과 같은 상용 라이브러리를 주로 사용하고 있다. 본 강연은 현재 딥 러닝 라이브러리가 가진 다음과 같은 세가지 문제점을 밝히고 앞으로 나아갈 바를 이야기한다. 1) 여러 가지 종류의 가속기를 동시에 지원하는 문제, 2) 대규모 이종 클러스터의 이용, 3) OpenCL과 같은 비상용 프로그래밍 모델의 지원.

나승구 이사(인텔코리아)
현재 인텔 인더스트리 세일즈 그룹팀의 고성능 컴퓨팅 비지니스 매니저, HP 기술영업사업부 Unix Solution Architect 및 x86 Technical Consultant 역임

Intel Xeon Phi (Knights Landing) 및 머신러닝 적용 방안
강연요약 IT 인프라의 심장이라고 할 수 있는 CPU 기술은 clock speed race 를 거쳐 현시점에는 multi core를 넘어선 many core로 향해 가고 있습니다. Many core 아키텍처의 대명사인 Intel(R) Xeon Phi™ (Knights Landing) 이 제공하는 호환성, 성능 그리고 확장성에 대해 알아보고, 최근 화두가 되고 있는 머신러닝에 대한 적용 방안에 대해 설명 드립니다.

전인걸 실장(한국전자통신연구원)
1999년 1월 ~ 현재 한국전자통신연구원(ETRI) 임베디드SW연구부 CPS연구실 실장, 2011년 8월 ~ 현재 한국과학기술연합대학원대학교(UST) 컴퓨터소프트웨어학과 부교수

스마트팩토리를 위한 CPS기반 가상공장 구축 및 시뮬레이션 기술
강연요약 우리나라 경제에 커다란 비중을 차지하고 있으나 지속적으로 경쟁력이 하락하는 제조산업의 재도약을 위해 4차산업혁명과 같은 새로운 패러다임에 대응하고 선진국형 제조 산업 육성을 위한 CPS(Cyber-Physical Systems, 사물지능제어(事物知能制御)시스템)기반 가상공장 구축 및 시뮬레이션 기술에 대해 소개한다.

[Session 5] System 2   
▒ 일시 및 장소 : 1.20(금) 14:30~16:10 / 그레이스홀1(6층)              좌장 : 노삼혁 교수(UNIST)

허재혁 교수(KAIST)
2008년 ~ 현재 KAIST 전산학부 교수, 2006년 ~ 2008년 Advanced Micro Devices, Senior Design Engineer

클라우드에서의 분산 및 병렬 응용의 성능 간섭
강연요약 다양한 특성을 가진 병렬 및 분산 응용 프로그램이 클라우드 환경에서 실행할 시에 응용 간의 공유 자원을 통한 간섭으로 인하여 성능의 저하가 발생한다. 이 강연에서는 분산 응용에 대해, 캐쉬 및 메모리 간섭 현상으로 인해 발생하는 성능의 변동을 예측할 수 있는 모델링 기법을 소개하고, 이를 이용한 분산 응용의 배치 기법을 설명한다.

최영리 교수(UNIST)
현재 UNIST 전기전자컴퓨터공학부 부교수, 미국 VMware, Inc, 한국과학기술정보연구원(KISTI) 근무

In-memory Caching Orchestration for Hadoop
강연요약 최근 들어 인메모리를 활용한 빅데이터 처리에 대한 관심 높아지고 있는데, 대표적인 빅데이터 처리 플랫폼인 하둡에서 인메모리를 효율적으로 활용하는 방법에 대해 이야기 한다.

김성관 리더(NAVER)
2016년 12월 현재 NAVER 서비스공통플랫폼 리더, 2007년 4월 네이버 플랫폼개발부 입사

네이버의 오픈소스 APM, Pinpoint의 개발 및 대규모 운영 사례
강연요약 네이버에서 개발하고 오픈소스화한 APM인 Pinpoint(https://github.com/naver/pinpoint)의 개발과 전세계 개발자들의 사용현황, 네이버의 적용 및 운영 사례를 공유합니다.

※ 상기일정은 사정에 따라 변경될 수 있습니다.

서울시 서초구 방배로 76 (방배동, 머리재빌딩 401호) 우)06704 | (Tel)1588-2728 | (Fax)02-521-1352 | 사업자등록번호 : 114-82-03170 | 대표 : 나연묵

Copyright (c) KIISE. All rights reserved.