최재식 교수 | [강연] Ai의 사고과정을 설명할 수 있을까 _ By최재식 ㅣ 2020 가을 카오스강연 ‘Ai X’ 6강 708 투표 이 답변

당신은 주제를 찾고 있습니까 “최재식 교수 – [강연] AI의 사고과정을 설명할 수 있을까 _ by최재식 ㅣ 2020 가을 카오스강연 ‘Ai X’ 6강“? 다음 카테고리의 웹사이트 you.maxfit.vn 에서 귀하의 모든 질문에 답변해 드립니다: you.maxfit.vn/blog. 바로 아래에서 답을 찾을 수 있습니다. 작성자 카오스 사이언스 이(가) 작성한 기사에는 조회수 27,189회 및 좋아요 424개 개의 좋아요가 있습니다.

최재식 교수 주제에 대한 동영상 보기

여기에서 이 주제에 대한 비디오를 시청하십시오. 주의 깊게 살펴보고 읽고 있는 내용에 대한 피드백을 제공하세요!

d여기에서 [강연] AI의 사고과정을 설명할 수 있을까 _ by최재식 ㅣ 2020 가을 카오스강연 ‘Ai X’ 6강 – 최재식 교수 주제에 대한 세부정보를 참조하세요

2020 가을 카오스강연 ‘Ai X’ 6강
◆강연| AI의 사고과정을 설명할 수 있을까
◆연사| 최재식_KAIST AI대학원 교수
최근 인공지능 기술은 내부에 복잡한 연결 구조를 갖고 있어, 그 내부 의사결정 과정을 이해하기 매우 어렵다. 그럼에도 불구하고 인공지능 기술이 국방, 의료, 제조, 자율주행 등 중요한 작업에 사용되기 시작, 의사결정과정의 투명성과 설명성이 중요하게 되었다. 최근 EU에서 발효된 일반정보보호 규정은 자동화된 의사 결정에 대한 설명성을 법적으로 요구하게 되었다. 본 강연에선 인공지능을 설명하는 기술 및 그 원리에 대해 소개하고 최근 기술에 대해서 소개하고자 한다.
◆모더레이터| 윤혜빈_혭반

강연 자료는 카오스재단 홈페이지에서 다운로드 받으실 수 있습니다:)
bit.ly/36ud7n7
(하단 강연자료 참고)

◆최재식 교수님의 인터뷰 보러가기 == https://youtu.be/7Czt2xTQNmY


과학의 신세계♥카오스재단
~ 홈 ikaos.org (가입시 강연 행사 안내)
페 북 facebook.com/kaosfoundation
유튜브 youtube.com/c/KAOSscience
인스타 instagram.com/kaosfoundation

최재식 교수 주제에 대한 자세한 내용은 여기를 참조하세요.

KAIST AI대학원 최재식 – 김박사넷

바쁘심. ·… · 밑에 댓글 쓰신 분은 혼자 잡무 덜 하시고 연구 집중하시는 동안 다른 동료들이 어떻게 지내는지 주위를 좀 둘러보셨으면 좋겠네요. · 이 한줄평은 해당 교수 …

+ 더 읽기

Source: phdkim.net

Date Published: 1/2/2022

View: 4492

MIT보다 뛰어난 기술 성과낸 최재식 KAIST 교수…“생성모델 …

최재식 KAIST 교수(사진=셔터스톡·UNIST, 편집=임채린 기자). 진짜 같은 가짜를 만드는데 탁월한 생성적 인공지능(AI)이 국내 유행을 선도하고 있다.

+ 더 읽기

Source: www.aitimes.com

Date Published: 12/18/2022

View: 1902

구성원 – KAIST 김재철AI대학원

전임교수. 정송 (대학원장). 직위 : 교수 (KAIST ICT 석좌교수) 연구분야 : 강화학습, … 최재식. 직위 : 부교수 연구분야 : 추론 및 예측, 설명가능 인공지능

+ 자세한 내용은 여기를 클릭하십시오

Source: gsai.kaist.ac.kr

Date Published: 5/18/2022

View: 4104

카이스트 최재식 교수팀, 딥러닝 생성모델의 오류 수정 기술 …

[한국강사신문 장한별 기자] KAIST(총장 이광형)는 AI(인공지능)대학원 최재식 교수(설명가능 인공지능연구센터장) 연구팀이 심층 학습(이하 딥러닝) …

+ 여기에 표시

Source: www.lecturernews.com

Date Published: 6/6/2021

View: 7941

KAIST 김재철AI대학원 최재식 – STAR Library

name:Choi, Jaesik;최재식;affiliation:KAIST;카이스트;한국과학기술원;김재철AI대학원;Kim Jaechul Graduate School of AI;keyword:시계열 분석;설명가능 인공지능; …

+ 더 읽기

Source: starlibrary.org

Date Published: 5/18/2022

View: 1790

최재식 교수 이력사항

최재식 교수 이력사항. 인적사항. 소 속 : 울산과학기술원. 전 화 : 052-217-2144. 이메일 : [email protected]. 교수 사진 …

+ 여기에 표시

Source: news.unist.ac.kr

Date Published: 4/25/2022

View: 2372

최재식 KAIST 교수 “인간지능에 대한 호기심이 AI개발 핵심동력”

AI분야 권위자인 최재식(사진) KAIST AI대학원 교수는 11일 ‘2020 가을 카오스강연’시리즈의 여섯번째 연사로 나서기 전 최근 카오스재단과 가진 …

+ 여기에 자세히 보기

Source: www.sedaily.com

Date Published: 6/23/2022

View: 6747

`설명가능 인공지능` 인이지, 초기 투자 유치 성공 – 매일경제

GS EPS·IBK銀와 벤처캐피털에서 55억 투자 최재식 카이스트 교수가 설립한 스타트업 인재 영입·솔루션 경쟁력 강화에 사용.

+ 여기를 클릭

Source: www.mk.co.kr

Date Published: 1/18/2022

View: 2209

주제와 관련된 이미지 최재식 교수

주제와 관련된 더 많은 사진을 참조하십시오 [강연] AI의 사고과정을 설명할 수 있을까 _ by최재식 ㅣ 2020 가을 카오스강연 ‘Ai X’ 6강. 댓글에서 더 많은 관련 이미지를 보거나 필요한 경우 더 많은 관련 기사를 볼 수 있습니다.

[강연] AI의 사고과정을 설명할 수 있을까 _ by최재식 ㅣ 2020 가을 카오스강연 'Ai X' 6강
[강연] AI의 사고과정을 설명할 수 있을까 _ by최재식 ㅣ 2020 가을 카오스강연 ‘Ai X’ 6강

주제에 대한 기사 평가 최재식 교수

  • Author: 카오스 사이언스
  • Views: 조회수 27,189회
  • Likes: 좋아요 424개
  • Date Published: 실시간 스트리밍 시작일: 2020. 11. 11.
  • Video Url link: https://www.youtube.com/watch?v=MMQjmeTmoxQ

KAIST AI대학원 최재식

김박사넷에 로그인하고

더 많은 기능을 이용해 보세요!

1. 동일계열 연구실과 SCIE논문 정보를 비교할 수 있어요.

동일계열 연구실과 SCIE논문 정보를 비교할 수 있어요. 2. 논문 기반으로 찾은 연구실 키워드를 열람할 수 있어요.

논문 기반으로 찾은 연구실 키워드를 열람할 수 있어요. 3. 연구실에서 나온 논문목록을 찾아볼 수 있어요.

연구실에서 나온 논문목록을 찾아볼 수 있어요. 4. 교수/연구원 즐겨찾기 기능으로 알람을 받을 수 있어요.

교수/연구원 즐겨찾기 기능으로 알람을 받을 수 있어요.

MIT보다 뛰어난 기술 성과낸 최재식 KAIST 교수…“생성모델 오류 수정 기술, 이루다 문제 잡을 것”

최재식 KAIST 교수(사진=셔터스톡·UNIST, 편집=임채린 기자)

진짜 같은 가짜를 만드는데 탁월한 생성적 인공지능(AI)이 국내 유행을 선도하고 있다. 요즘 20대들은 ‘디즈니 프사’를 해야 ‘인싸’로 인정받는다. 코로나19 이후 부쩍 증가한 주식 투자자들 가운데 한국어로 “테슬라 사~랑께”라 말하는 가짜 일론머스크 유튜브 영상을 모르는 이는 드물다.

일론 머스크 딥페이크 더빙 영상(출처=나몰라패밀리 핫쇼 유튜브)

재미를 위한 콘텐츠로 AI 생성모델을 접하는 일반 사용자들과 달리 기업들 태도는 보다 진지하다. 작년 오픈AI의 GPT-3 등장 이후 네이버, LG AI연구원, 카카오, SKT 등 다수 국내 기업들은 초거대 AI 언어모델 개발을 중요 사업으로 선언했다.

하지만 의료, 제조, 국방 등 사회 주요 영역에서 생성적 AI를 활용하는 경우는 아직 많지 않다. 주로 이미지를 대상으로 발전한 생성적 대립 신경망(GAN)은 부자연스런 배경과 같은 한계점으로 엔터테인먼트 이외 영역에 사용하기 어려운 상황이다.

GPT-3와 같은 언어생성모델에서도 오류 문제는 빠른 상용화를 어렵게 하는 주요 장애물이다. 상당수 연구에 따르면 GPT-3가 대화 맥락상으로 봤을 때는 그럴싸하지만 상식적으로 말이 안 되는 대답을 종종 제시한다. 예를 들어, 고인이 된 스티브잡스가 현재 캘리포니아 애플 본사에 있다고 대답하는 식이다.

차세대 AI 기술로 손꼽히는 생성모델이 일상 속에 들어오기 위해서는 이러한 오류 문제를 수정할 필요가 있다. KAIST 최재식 교수는 전문 분야인 설명가능 AI를 활용해 새로운 생성모델 오류 수정 기술을 개발, 지난주 CVPR 2021에 공개했다.

[논문] 생성적 신경망 내부 유닛에 대한 자동 수정(Automatic Correction of Internal Units in Generative Neural Networks)

설명가능 AI 기술로 생성모델 내부에서 문제를 일으키는 유닛(뉴런)을 찾아 제거하는 알고리즘을 고안한 것. 신경망 모델을 일일이 재학습하는 기존 방식에 비해 업무 부담을 대폭 줄인다. 모델 구조에 대한 의존성이 적은 만큼 텍스트, 이미지, 음성, 영상 등 다양한 분야에 응용 가능하다.

◆배경 왜곡하는 GAN, 기본 상식 놓치는 GPT-3

딥페이크부터 GPT-3까지 생성모델들은 놀라운 성과를 보이며 AI계 핵심 주제로 떠올랐지만 그만큼 한계점도 주목받고 있다.

가짜 유명인 딥페이크 영상부터 소위 ‘디즈니 프사’까지 대중들에게 인기를 얻고 있는 GAN 기술 같은 경우 쉽게 한계를 확인해볼 수 있다.

생성모델 오류로 인한 대표적인 GAN 한계로 배경 왜곡을 꼽을 수 있다. 사진 속 사람 얼굴을 디즈니 캐릭터처럼 만들어주는 애플리케이션 서비스를 사용해보니 쉽게 그 한계를 알 수 있었다.

기자가 직접 이용해 본 디즈니 프사 프로그램. 왼쪽 사진은 배경이 일그러지고 토끼 눈이 없어졌다. 오른쪽 사진은 배경이 색지로 대체됐다.

기자가 반려토끼와 함께 찍은 사진에 프로그램을 적용했더니 배경에서 토끼 눈이 사라졌다. 대부분의 GAN 서비스에서는 배경에 과도한 블러처리를 하거나 아예 다른 이미지를 가져와 부자연스러운 한계점을 가린다.

이와 같은 이유로 재미를 목적으로 하는 엔터테인먼트 외 산업 현장에서 GAN을 활용하기는 쉽지 않다.

AI 여행 서비스 기업 누아 서덕진 대표는 “GAN을 활용해 저작권 침해 우려 없이 사용할 수 있는 음식 사진을 만드는 중인데 쉽지 않다. 배경 접시가 일그러지는 것과 같은 오류가 발생하기 때문”이라고 말했다.

GAN의 오류 문제에 대해 KAIST 최재식 교수는 “현실 세계에서는 있을 수 없는 상황을 만든다. 이미지 배치나 다른 물체와의 조화되지 않은 조합이 나오는 경우가 있다. 의료, 국방, 제도 등 신뢰도가 중요한 분야에 도입을 못 하는 이유”라고 설명했다.

우리나라를 비롯해 전세계에 초거대 AI 언어모델 개발 붐을 일으킨 GPT-3도 오류 사례가 다수 알려진 바 있다. AI 비서 개발사인 바이오닉(Bionic) 설립자 맥케이 리글리(Mckay Wrigley)는 GPT-3를 활용해 가짜 유명인과 채팅을 할 수 있는 프로그램을 만들어 트위터에 공개했다.

해당 프로그램을 사용 예시 중 하나에서는 고인이 된 (가짜) 스티브 잡스가 “지금 캘리포니아 애플 본사에 있다”고 대답했는데 이는 대표적인 GPT-3 오류라 할 수 있다. 해당 대화 맥락에서는 말이 되지만 현실 속에서는 틀린 대답이기 때문.

이외 인간에게는 어렵지 않은 상식 문제나 기본적인 수학 문제에서도 틀린 답을 제시하는 경우가 많다. 예를 들어 100만 전에 오는 숫자가 무엇이냐고 물었을 때 90만99라고 답하는 식이다.

◆설명가능 AI가 오류 위치 포착…결함 자체 이외 상위 특징 파악

생성모델에서의 오류, 즉 결함(Artifact)은 생성모델과 분류모델이 서로를 속여 학습능력을 높이는 과정에서 다수 발생한다.

이러한 결함을 수정하는 일은 기존 방법으로는 시간적, 금전적 비용이 많이 들어 사실상 현장 적용이 어려웠다. 부분적인 오류가 발생할 때마다 모델 전체를 재학습해야하기 때문이다. 재학습을 한다고 해서 해당 오류가 수리된다고 확실히 보장할 수도 없다.

GPT-3는 빈번하게 오류를 만듦에도 불구하고 보통 프롬프트라고 알려진 입력 텍스트값을 미세조정(파인튜닝)하는 방식으로 결함을 수정했다.

기존 생성모델 오류 수정 기술 한계에 대해 최재식 교수는 “과거에는 시각적 결함을 하나의 물체로 간주하고, 이를 유발하는 내부 유닛을 검출하고 제거하여 결함을 수리했다. GAN 내부 유닛(뉴런)이 생성결과에 존재하는 물체(나무, 선글라스 등)에 대한 정보를 표현하고 있다고 여겼기 때문”이라고 설명했다.

이어 “결함을 몇 개의 물체로 표현하는 것은 모델에서 발생할 수 있는 모든 결함을 포함할 수 없다는 단점이 있다”고 말했다.

최 교수는 자신의 전문분야인 설명가능 AI를 활용해 새로운 생성모델 오류 수정 방식을 고안했다. 설명가능 AI를 적용함으로써 딥러닝 모델 내 어디에 결함이 위치하는지, 어떤 유닛이 결함의 생성에 관여하는지 파악할 수 있게 됐다.

오류를 유발하는 내부 유닛과 계층별 유닛 제거에 대한 모식도(사진=KAIST)

시각적 결함에 대한 상위 수준(high-level)의 특징을 추출하기 위해 연구팀은 정상 생성 이미지와 결함이 있는 이미지를 이용해 신경만 기반 분류기 학습을 진행했다. 분류기에 설명가능 AI 방법 중 하나인 GradCAM을 적용해 결함 부분을 마스크로 변환했다.

이후 결함 마스크와 생성기 내부 유닛에 대한 공통 영역(Intersection over Union, IoU)을 계산해 오류를 유발하는 내부 유닛을 계층 별로 검출했다. 연구팀은 해당 유닛 활성화하지 못하는 방식으로 생성모델 오류를 수리하는데 성공했다.

◆기존 MIT 기술 능가, CVPR 2021서 발표…“이루다도 개선 가능”

최재식 교수 연구팀은 전통적인 구조를 가지는 ‘진행형 생성모델(Progressive GAN, PGGAN)’에서 개발 기술이 효과적으로 생성 오류를 수리할 수 있음을 확인했다.

최 교수팀이 개발한 기술은 MIT가 개발한 기존 오류 생성 수리 기술보다 FID(Fr´echet Inception Distance) 점수가 10점 낮게 나타났다. FID 점수는 실제 이미지 그룹과 생성 이미지 그룹의 유사도를 측정하는 지표다. 값이 작을수록 생성 이미지의 형태가 실제 이미지와 유사함을 의미한다.

사용자 평가에서는 시험 이미지 그룹의 약 50%에서 결함이 제거됐고 약 90%에서 품질이 개선됐다는 결과를 얻었다. 특이 구조를 가지는 StyleGAN2와 U-net GAN에서도 생성 오류 수리가 가능해진 것 또한 큰 성과다.

시각적 결함이 포함된 생성이미지에 대한 수리 결과(사진=KAIST)

개발 기술 성과에 대해 최재식 교수는 “기존 MIT 기술은 사람이 손으로 오류를 직접 수정해야 했다. 이외 다른 기술에서 자동으로 가능했지만 세밀하지는 못했다. 이번 연구에서는 문제를 발생하는 뉴런을 정확하게 찾아 문제를 개선할 수 있었다”고 설명했다.

해당 성과는 국제적인 인정을 받아 지난주 진행된 대표적인 컴퓨터비전 분야 국제학술대회 CVPR 2021서 소개됐다.

최재식 교수팀이 개발한 이번 기술은 주로 이미지 생성모델에서 효과를 입증했으며, 향후 언어 생성모델에 적용될 예정이다.

최 교수는 “이루다와 같은 언어 생성모델에도 적용해 문제가 생기는 상황을 개선할 수 있을 것으로 예상한다. 딥러닝 생성모델의 신뢰도를 향상하면 중요한 작업에도 적용할 것으로 기대한다”고 전했다.

AI타임스 박성은 기자 [email protected]

[관련기사]네이버, 한국어판 GPT-3 ‘하이퍼클로바’ 최초 공개

[관련기사]고대 이집트 왕과 왕비는 어떤 얼굴일까…AI가 재현한 실제 모습은?

카이스트 최재식 교수팀, 딥러닝 생성모델의 오류 수정 기술 개발

최재식 교수 [사진 출처=카이스트] [한국강사신문 장한별 기자] KAIST(총장 이광형)는 AI(인공지능)대학원 최재식 교수(설명가능 인공지능연구센터장) 연구팀이 심층 학습(이하 딥러닝) 생성모델의 오류 수정 기술을 개발했다고 25일 밝혔다.

최근 딥러닝 생성모델(Deep Generative Models)은 이미지, 음성뿐만 아니라 문장 등 새로운 콘텐츠를 생성하는 데 널리 활용되고 있다. 이런 생성모델의 발전에도 불구하고 최근 개발된 생성모델도 여전히 결함이 있는 결과를 만드는 경우가 많아, 국방, 의료, 제조 등 중요한 작업 및 학습에 생성모델을 활용하기는 어려운 점이 있었다.

최 교수 연구팀은 딥러닝 내부를 해석하는 설명가능 인공지능 기법을 활용해, 생성모델 내부에서 이미지 생성과정에서 문제를 일으키는 유닛(뉴런)을 찾아 제거하는 알고리즘을 고안해 생성모델의 오류를 수리했다. 이러한 생성 오류 수리 기술은 신경망 모델의 재학습을 요구하지 않으며 모델 구조에 대한 의존성이 적어, 다양한 적대적 생성 신경망에 폭넓게 응용 및 적용될 수 있을 것으로 기대된다. 또한, 고안된 기술은 딥러닝 생성모델의 신뢰도를 향상해 생성모델이 중요 작업에도 적용될 수 있을 것으로 기대된다.

왼쪽부터 한지연 박사과정, 최환일 박사과정, 정해동 박사과정, 알리 투씨(Ali Tousi) 박사과정 [사진 출처=카이스트]

KAIST AI대학원의 알리 투씨(Ali Tousi), 정해동 연구원이 공동 제1 저자로 참여한 이번 연구는 `국제 컴퓨터 비전 및 패턴인식 학술대회 (IEEE Conference on Computer Vision and Pattern Recognition, CVPR)’에서 6월 23일 발표됐다. (논문명: Automatic Correction of Internal Units in Generative Neural Networks, CVPR 2021).

적대적 생성 신경망은 생성기와 구분기의 적대적 관계를 이용한 모델로서, 생성 이미지의 품질이 높고 다양성이 높아, 이미지 생성뿐만 아니라 다양한 분야(예, 시계열 데이터 생성)에서 주목받고 있다.

딥러닝 생성모델의 성능을 향상하기 위해서 적대적 생성기법 및 생성기의 새로운 구조 설계 혹은 학습 전략의 세분화와 같은 연구가 활발히 진행되고 있다. 그러나 최신 적대적 생성 신경망 모델은 여전히 시각적 결함이 포함된 이미지를 생성하고 있으며, 재학습을 통해서 이를 해결하기에는 오류 수리를 보장할 수 없으며, 많은 학습 시간과 비용을 요구하게 된다. 이렇게 규모가 큰 최신 적대적 생성 신경망 모델의 일부 오류를 해결하기 위해 모델 전체를 재학습하는 것은 적합하지 않다.

그림1. 오류를 유발하는 내부 유닛과 계층별 유닛 제거에 대한 모식도 [사진 출처=카이스트]

연구팀은 문제 해결을 위해 생성 오류를 유도하는 딥러닝 내부의 유닛(뉴런)을 찾아 제거하는 알고리즘을 개발했다. 알고리즘은 딥러닝 모델의 시각적 결함의 위치를 파악하고, 딥러닝 모델 내 여러 계층에 존재하는 오류를 유발한 유닛을 찾아서 활성화하지 못하도록 하여 결함이 발생하지 않도록 했다.

연구팀은 설명가능 인공지능 기술을 활용해 시각적 결함이 생성된 이미지의 어느 부분에 분포하는지, 또 딥러닝 내부의 어떤 유닛이 결함의 생성에 관여하는지 찾을 수 있었다. 개발된 기술은 딥러닝 생성모델의 오류를 수리할 수 있고, 생성모델의 구조에 상관없이 적용할 수 있다.

연구팀은 전통적인 구조를 가지는 ‘진행형 생성모델(Progressive GAN, PGGAN)’에서 개발 기술이 효과적으로 생성 오류를 수리할 수 있음을 확인했다. 수리 성능은 매사추세츠 공과대학(MIT)이 보유한 수리 기술 대비 FID 점수가 10점 정도 감소했으며, 사용자 평가에서 시험 이미지 그룹의 약 50%가 결함이 제거됐고, 약 90%에서 품질이 개선됐다는 결과를 얻었다. 나아가 특이 구조를 가지는 ‘StyleGAN2’와 ‘U-net GAN’에서도 생성 오류 수리가 가능함을 보임으로써 개발 기술의 일반성과 확장 가능성을 보였다.

그림2. 시각적 결함이 포함된 생성 이미지에 대한 수리 결과 [사진 출처=카이스트]

연구팀이 개발한 생성모델의 오류 제거 기술은 다양한 이미지 외에도 다양한 생성모델에 적용돼 모델의 결과물에 대한 신뢰성을 높일 것으로 기대된다.

공동 제1 저자인 알리 투씨와 정해동 연구원은 “딥러닝 생성모델이 생성한 결과물에 있는 시각적 오류를 찾고, 이에 상응하는 활성화를 보이는 생성모델 내부의 유닛을 순차적으로 제거함으로써 생성 오류를 수리할 수 있음을 보였다ˮ라며 이는 “충분히 학습된 모델 내부에 미학습 혹은 잘못 학습된 내부요소가 있음을 보여주는 결과다ˮ라고 말했다.

한편 이번 연구는 2021년도 과학기술정보통신부의 재원으로 정보통신기획평가원의 지원을 받은 혁신성장동력프로젝트 설명가능인공지능 및 한국과학기술원 인공지능 대학원 프로그램과제를 통해서 수행됐다.

최재식 KAIST 교수 “인간지능에 대한 호기심이 AI개발 핵심동력”

< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >

“인간 지능에 대한 호기심이 인공지능(AI)개발의 가장 핵심적인 원동력입니다”AI분야 권위자인 최재식(사진) KAIST AI대학원 교수는 11일 ‘2020 가을 카오스강연’시리즈의 여섯번째 연사로 나서기 전 최근 카오스재단과 가진 인터뷰에서 “AI전문가를 꿈꾸는 학생이라면 수학이나 프로그래밍을 잘 하는 것에 앞서 ‘사람의 지능적 행동’을 어떻게 구현해 볼 수 있을까‘라는 호기심을 갖고 직접 도전해보는 게 가장 중요하다”고 조언했다.이번 ‘AI의 사고과정을 설명할수 있을까’라는 주제로 강연하는 최 교수는 차세대 AI기술로 불리는 ‘설명가능AI(XAI)’분야의 선두주자다. 기존 AI시스템은 주어진 자료를 분석·예측할 수 있지만 그 결과가 도출되는 원인을 알기 어려운 단점이 있는데, 설명가능AI 은 그런 결과에 대한 핵심 원인을 파악할 수 있는 시스템이다.현재 KAIST 설명가능AI연구센터장을 맡고 있는 그는 “최근 딥러닝과 같이 사람의 뇌를 모사한 AI 시스템은 용량이 커 내부의 의사결정을 다 알 수 없는 경우가 있다”며 “AI가 잘못되거나 불완전한 의사결정을 내릴 수도 있는데 이 같은 불완전한 면을 설명가능AI가 보완할 수 있다”고 말했다.그는 설명가능AI가 사람 생명, 안전과 재산에 직결되는 중대한 부문·환경의 ‘근간 시스템(미션 크리티컬)’이 된다고 규정했다. 그는 “의료 시스템이나 자율자동차 주행처럼 생명과 연관된 사항에 대해 의사결정이 어떻게 이뤄지는지 반드시 알아야 한다”며 “AI 적용을 검증하는 시스템인 셈”이라고 말했다.최 교수의 설명가능AI 연구는 실제 상용화를 통해 산업현장에서도 성과를 내고 있다. 포스코 포항제철소 2고로가 대표적 사례다. 2고로는 딥러닝 모델을 적용해 고로 통기성·연소성·용선온도 등을 스스로 제어하는 등 자동화를 90% 수준까지 끌어올렸다. 여기에 설명가능AI 기술을 적용해 이 같은 제어행동의 이유를 파악하고 이를 통해 철강제품의 품질과 생산성 향상을 높이는 연구를 진행하고 있다.그는 “가령 AI에 들어가는 입력값 중에 특정한 입력이 들어오면 AI 판단이 불완전하게 되는데 이 같은 입력값이 무엇인지도 가려낸다”며 “다양한 분야로 상용화가 가능한 기술”이라고 설명했다.미국 일리노이대에서 전산학 박사를 딴 최 교수는 로런스버클리연구소에서 연구원으로 근무했으며 지난 2013년부터 울산과학기술원(UNIST) 전기컴퓨터공학부 교수로 인공지능연구센터장을 맡다가 지난해 KAIST로 자리를 옮겼다. 병역특례업체에 근무할 당시 네트워크 패턴을 분석하면서 알고리즘을 이용해 자동으로 파악하는 방법을 고민한 것이 그를 AI 과학자의 길로 이끌었다.그는 “어떤 경우에 사람은 어떻게 판단할까를 생각하다가 로봇에 흥미를 느꼈고 이것이 AI 연구를 시작하는 계기가 됐다”며 “자신이 스스로 고민과 호기심을 해결해내는 학생들이 늘어나면 우리나라 AI 연구의 미래도 밝을 것”이라고 덧붙였다./박현욱기자 [email protected]

‘설명가능 인공지능’ 인이지, 초기 투자 유치 성공

설명가능한 인공지능(AI) 솔루션을 개발하는 스타트업이 GS그룹과 IBK기업은행 등으로부터 초기 투자를 유치했다. 최재식 카이스트 교수가 설립한 ‘인이지’가 그 주인공이다. 확보한 자금은 인재 영입과 솔루션 경쟁력 강화에 쓰일 예정이다.6일 회사와 투자은행(IB) 업계에 따르면 인이지는 최근 55억원 규모의 초기 자금을 유치했다. 본격적인 시리즈 펀딩에 나서기 앞서 프리 투자(Pre-Series A)를 받은 것이다. GS EPS와 IBK기업은행, 도담벤처스, 스프링캠프, 위벤처스, 캡스톤파트너스 등이 참여했다. 임직원과 자문단으로 구성된 개인투자조합도 함께 이름을 올렸다.인이지는 최재식 카이스트 교수가 지난 2019년 설립한 스타트업이다. 인이지는 ‘인간을 이롭게 하는 인공지능’의 줄임말이다. 최재식 대표는 김재철AI대학원에서 설명가능 인공지능 센터장을 맡고 있다.설명가능 인공지능(Explainable AI·XAI)이란 기계 학습 알고리즘에 의해 생성된 결과물을 이해하고 신뢰할 수 있도록 하는 일련의 방법을 통칭한다. 기존의 기술은 빅데이터와 알고리즘으로 사용자에게 의사결정, 추천, 예측 등의 정보를 효과적으로 제공했다. 하지만 학습을 위한 인공신경망이 깊고 복잡해지면서, 개발자조차 어떻게 학습되고 결정이 이뤄졌는지 알 수 없게 됐다. 효율성을 높였지만 공정성과 신뢰성, 정확성까지 담보하지는 못한 것이다. 이런 점 때문에 관련 업계에선 기존의 기술을 보완·발전시킨 ‘설명가능 AI’를 연구하는 것이 대세로 자리잡았다.인이지의 AI는 공정 데이터를 효율적으로 학습해 생산 전반을 예측하고, 제품 원가를 고려한 이익 극대화 방법을 모색한다. 독자적인 기술력으로 산업용 공정 최적화와 예지보전을 위한 솔루션(Infinite Optimal Series)을 개발했다. 설립 직후 울산과학기술원(UNIST)과 카이스트에서 개발된 AI 기술을 이전한 덕분에 기술 고도화를 빠르게 이뤄낼 수 있었다. 최근엔 국제머신러닝학회(ICML), 전미인공지능학회(AAAI) 등 세계 최고 인공지능 학술대회에 7건의 논문을 발표하는 등의 성과도 냈다.인이지의 자체 AI 솔루션은 기업 현장에서 일찌감치 인정받고 있다. 창업팀은 창업 전 세계 최초로 딥러닝에 기반한 고로 제어 예측 AI를 포스코 스마트 고로에 적용해, 용광로 쇳물 온도의 오차를 25%나 줄이는 데 성공했다. 2019년 창업 이후엔 동서발전에서 관련 AI 기술을 보일러 진단에 적용하기도 했다. 그 과정을 통해 재가열기 튜브의 누설 감지 속도를 기존 기법 대비 62시간 단축시키는 데 성공했다.인이지는 확보한 자금을 인재 영입과 솔루션 경쟁력 강화에 사용할 방침이다. 최재식 대표는 “뛰어난 역량을 지닌 인재를 영입하고 산업용 공정 최적화·예지보전 AI 솔루션을 도입해 제조강국의 실현에 이바지할 것”이라며 “빠른 시일 내에 클라우드 서비스를 론칭해 글로벌 시장에 진출하겠다”고 말했다.고경표 스프링캠프 팀장은 “디지털 전환이 전세계적으로 가속화되고 있으며 그중에서도 공정 과정의 효율 향상은 모든 기업의 과제”라며 “인이지는 독자적인 기술력과 풍부한 공정 최적화 노하우를 보유하고 있어 관련 분야에서 글로벌 기업으로 성장할 잠재력을 갖고 있다”고 투자 배경을 설명했다.[강우석 기자][ⓒ 매일경제 & mk.co.kr, 무단전재 및 재배포 금지]

키워드에 대한 정보 최재식 교수

다음은 Bing에서 최재식 교수 주제에 대한 검색 결과입니다. 필요한 경우 더 읽을 수 있습니다.

이 기사는 인터넷의 다양한 출처에서 편집되었습니다. 이 기사가 유용했기를 바랍니다. 이 기사가 유용하다고 생각되면 공유하십시오. 매우 감사합니다!

사람들이 주제에 대해 자주 검색하는 키워드 [강연] AI의 사고과정을 설명할 수 있을까 _ by최재식 ㅣ 2020 가을 카오스강연 ‘Ai X’ 6강

  • AI
  • 딥러닝
  • 컴퓨터
  • 인공지능
  • KAOS
  • 과학강연
  • 과학행사
  • 과학콘서트
  • 과학
  • 카오스
  • 재단법인카오스
  • 카오스TV
  • KAOS foundation
  • 컴퓨터공학
  • 데이터사이언스
  • 자율주행
  • 커뮤니케이션
  • 인공지능커뮤니케이션
[강연] #AI의 #사고과정을 #설명할 #수 #있을까 #_ #by최재식 #ㅣ #2020 #가을 #카오스강연 #’Ai #X’ #6강


YouTube에서 최재식 교수 주제의 다른 동영상 보기

주제에 대한 기사를 시청해 주셔서 감사합니다 [강연] AI의 사고과정을 설명할 수 있을까 _ by최재식 ㅣ 2020 가을 카오스강연 ‘Ai X’ 6강 | 최재식 교수, 이 기사가 유용하다고 생각되면 공유하십시오, 매우 감사합니다.

Leave a Comment