:: 게시판
:: 이전 게시판
|
- 자유 주제로 사용할 수 있는 게시판입니다.
- 토론 게시판의 용도를 겸합니다.
통합규정 1.3 이용안내 인용"Pgr은 '명문화된 삭제규정'이 반드시 필요하지 않은 분을 환영합니다.법 없이도 사는 사람, 남에게 상처를 주지 않으면서 같이 이야기 나눌 수 있는 분이면 좋겠습니다."
16/03/13 22:30
인간과의 대국도 계속 기보가 쌓이다보면 이런 종류도 대처할수 있지 않을까요?
스스로 대국으로 기보를 쌓아왔으니까요 알파고도 다른 인간들과의 대결로 이것과 비슷한 케이스를 계속 쌓아간다면 즉 돌발조차도 스스로 교육해간다면 이런 경우도 없어질것 같습니다
16/03/13 22:37
버그가 아니라 딥러닝 특성상 이런저런
학습을 하면서 필연적으로 노이즈가 발생하게 됩니다. 사람으로 치면 교육환경에 의한 편견이라고 보시면 됩니다. 이게 재미있는게 블랙박스다 보니 같은 재료로 학습을 해도 머신마다 성능차이나 특성이 조금씩 다릅니다. 지금의 알파고는 그 중에서 가장 승률이 좋은 녀석이고요. 결론은 버그가 아니라 지금의 알파고를 폐기하고 새로 키우지 않는 이상 지금의 특성은 쭉 존재할 가능성이 큽니다. 나이먹은 인간이랄까요.. 다른 알파고는 다른 약점이 있겠죠. 혹시 딥러닝으로 강인공지능을 만든다면 파트별로 강력한 지능을 지닌 인공지능의 국회 같은 것이 아닐까라고 생각합니다
16/03/13 22:42
딥러닝으로 만든다면 편견없는 인간을 만드는 만큼 어렵다고 봅니다.
알고리즘이 아니라 학습이라 학습교재, 학습방법, 목표에 따라서 결과물이 다른데 결과물의 구조를 확인할수 없거든요. 정말 인간을 기르는 알고리즘이라고 생각하시면 이해하기 편하실지도
16/03/13 22:47
그렇다면 돌연변이 알고리즘 같은 것을 넣어서 그중에 편견없는 인공지능이 나오길 기다려야 하려나요?
어느날 우연히 그런 놈이 나타날테니 그런 인공지능은 몸값이 엄청나겠군요. ^^ 그런데 만일 정말 편견을 해결해 줄 기술을 가진 기업을 만든다면 그 기업은 대박인 게 맞겠네요!
16/03/13 22:57
이번에도 딥러닝에 바둑의 수많은 경우의 수를 줄여주는 알고리즘을 접목해서
성과를 낸 경우죠. 음성인식, 이미지 인식도 딥러닝으로 9x%까지는 정복했지만 99%까지는 한계가 있어 이런저런 추가 알고리즘이 필요시 되고 있습니다. 이 부분이 보완되면 자비스와 울트론이 나와서 인간종말이....
16/03/13 22:38
바둑에서 사람이 볼 땐 실수인 수가 나중에 결정적인 역할을 하는 수로 평가되는 걸 보면
나중엔 운전도 사람이 볼땐 김여사처럼 하는건데 나중엔 큰그림 그린 운전이라고 평가되는 일도 있겠네요 크크
16/03/13 22:38
확실히 인간의 안전과 관련된 분야에 인공지능을 활용한다면 좀 더 연구가 필요하겠군요.
근데 본문의 내용과 크게 관련은 없는 상황에 따른 평가가 정 반대인것도 재미있습니다. 1국과 2국이 끝났을땐 인간이 아니라서 편견이 없고 정석이나 수순을 무시하고 창의적으로 바둑을 둔다고 했지만, 4국이 끝났을땐 평균만을 추구하는 편견이 있어 돌발수를 못읽어낸다는 평가가 있군요.
16/03/13 22:43
알파고가 바둑에 관한한 딥러닝 + 자가학습을 적용한 첫작품이고 이 첫작품에 대한 평가(검증)도 지금 일어나고 있는 일이라서 이런저런 의견을 낼 수밖에 없으니까요.
그런데 인공지능에 대한 연구를 하는 분들의 글을 보니 인공지능이 일종의 편견 같은 것을 갖게 되는 것은 맞는 것 같아요.
16/03/13 22:48
그렇다면 좀 아깝군요. 저는 창의적인 수가 인간의 편견을 깨주는데 도움이 되었으면 했는데,
실제로는 창의적인게 아니라 계산이 끝나 창의적으로 보일뿐 인간이 생각하지 못한 스스로의 독창성을 가지는건 아니다라는 거군요.
16/03/13 23:02
현재의 딥러닝 + 자가학습 기능을 적용하는 알고리즘이면 그럴 수밖에 없는 것 같다는 생각이 든 문외한의 글입니다. ^^;
앞으로는 어떨지 모르죠. 언뜻 드는 생각은 일단 일반화를 완성한 인공지능에게 다시 한번 예외에 대한 데이터 학습을 하게 하는 게 어떨까 합니다. 엄청난 학습량으로 고도로 일반화된 상태의 인공지능에게 난수발생 방법 등으로 일반적이지 않은 데이터를 스스로 만들게 해서 일반적인 알고리즘으로 처리되지 않는 상황에 대한 학습을 시키는 것이죠. 그리고 이에 대한 학습은 가치망, 정책망 말고 다른 망에 저장하는 게 어떨까 상상해 봤습니다. 사람의 뇌도 영역에 따라 맡은 역할이 다르듯이 인공지능도 그런 상황에 대처하게 하는 영역을 따로 만드는 게 어떨까 하는 상상을요. 그리고 아마도 결국 인간의 뇌에서 '마음의 자리'라고 추정되는 '클라우스트룸'이라는 영역이 있는 것처럼 인공지능에도 그런 역할을 담당하는 영역이 언젠가는 추가되어야 하지 않을까 합니다(메인 프로그램이 그런 역할을 하고 있을 것 같긴 하지만...).
16/03/13 22:56
사실 저런 면 때문에 1,2,3국을 연달아 이길 수 있었던 것이라고 봐서 그냥 특성으로 남지 않을까요?
물론 다음 세대의 알파고는 점점 저런 실수를 줄여나가겠지만요.
16/03/13 23:10
델타고 정도가 되면 편견이 없는 놈일 수도 있을 것 같습니다.
그런데 일반화가 장점이 되는 일도 있죠. 예를 들어 판관 인공지능이라면... "예외는 없어. 만인은 법 앞에 평등해."라며 돈 많은 놈이나 돈 없는 놈 가리지 않고 판결을 내려줄테니까요.
16/03/13 23:30
판사알파고는 죽창판사가 되는거군요...
같은 죄 앞에선 너도 한방 나도 한방!! 확실히 '인공지능이 사람을 심판한다는 거부감'만 없으면 훨씬 공정할것 같긴 합니다. 기계에는 감정이나 이해관계가 개입될 여지가 없다보니...
16/03/13 23:37
판관 인공지능 자체는... 인공지능의 개발 난이도보다는 법조문의 디지털화(수치화, 코드화)가 더 큰 숙제일 것 같습니다.
만약에, 법으로 정의하는 인간의 모든 행위들을 일종의 고유 코드별로 구분하고, 그 중에서 법으로 금지하는 행위들의 점수를 매길 수만 있다면, 딱히 인공지능이라 할 것도 없는, 엑셀 시트같은 연산으로도 답이 나오거든요. 실제로, 문명, 크킹, 캐피탈리즘, 심시티... 등의 시뮬레이션 게임들이 비슷한 원리로 돌아가죠. 뭐뭐뭐 한 조건을 갖추면 득점, 아니면 실점. 실점이 많으면 게임오버, 득점이 많으면 다음 단계로 발전.
16/03/13 23:44
그럴 수도 있겠지만 그냥 인간의 언어를 이해하는 인공지능의 도움으로 입력이 가능할 수도 있지 않을까 하는 상상을 해 봅니다.
IBM의 왓슨은 인간의 언어를 이해하는 것 같던데 더 발전하면 인공지능 교육용 인공지능이 될 수도 있지 않을까 하는 상상도 해 보고요. 연구를 하다보면 가능하지 않을까요?
16/03/13 23:48
인간의 언어를 이해해서 수치화 시킨 후, 데이터베이스에서 그 해답을 찾아내는 거겠죠?
사실... 왓슨의 하위호환으로 시리가 있습(...) 제가 하고 싶었던 가장 솔직한 얘기는... 판관 인공지능은 현재의 기술력만으로도 사실상 구현 가능해요. 말하자면... 인물 맞추기 게임 있잖아요( http://kr.akinator.com/ ), 그거랑 거의 똑같은 원리거든요. 다만, 사람들이 그걸 받아들이기 힘들 것이기 때문에, 사용하지 못하는 것 뿐이라고 봅니다.
16/03/14 10:23
대부분의 재판에서 쟁점이 되는 건 법령을 적용하는 부분이 아니라서, 구현을 하더라도 생각하시는 것과 많이 다를 겁니다.
재판은 2단계인데, 먼저 증거에 의해 사실관계를 인정하는 단계(ⓐ)와, 그 사실관계에 관하여 어떤 법령을 적용하는가의 단계(ⓑ)이지요. 그런데 99% 가량의 재판에서 양측이 싸우는 건 ⓐ입니다. 즉 돈을 송금했고, 일정기간 후에 갚기로 했다 → (당사자가 어떤 용어로 포장했든 간에 실질은) 대여금이구만... 이런 게 헷갈린다기보다는(물론 이런 게 헷갈리는 사건도 어쩌다 하나씩 있긴 합니다), 양쪽 다 대여금이라는 걸 인정하고 변제 여부를 가지고 싸우거나(그 과정에서 온갖 영수증이 난무하고;;; 그걸 변제로 받은거냐 다른 거래에서의 돈으로 받은거냐를 놓고 또 설전이 벌어지죠), 대여계약은 했지만 실제 돈이 안 넘어왔다거나 하는게(차용증은 있는데 송금증이 없네?) 실전 재판에서의 쟁점이라서요. 재판은 일반적으로 생각하는 것보다 훨씬 구현하기 어렵다고 봐야 합니다.
16/03/13 23:28
딥러닝 방식이... 어찌 보면 시행착오를 통해서 훈련해가는, 사람과도 같은 스타일인지라...
예를 들어서, 사람도 어렸을 때 젓가락질을 잘못 배우면, 나이가 들어서 그것을 고치기가 무척 어렵습니다. 나이가 들어서는, 이게 정석적인 젓가락질이 아닌걸 알면서도, 평생동안 그 젓가락질로 음식을 집어먹는다는 목적은 달성했기 때문에, 뇌와 근육에 그 젓가락질이 '강화학습' 되어버리는 것이죠. 어쨌거나 긍정적인 피드백(=음식을 집어먹는다)는 계속 받았으니까요. 신경망 방식의 AI가 이와 비슷합니다. 결국은... 누군가 평가를 해서, 아예 글러먹은 놈은 솎아내는 수 밖에 없지요.
16/03/13 23:29
근데 이건 AI의 문제점이라기엔.... 이세돌은 알파고에게 거의 천재지변급 아닌가요? 일반적인 사람들에게 알파고는 승률 몇%를 떠냐 그냥 무적수 그 자체겠죠. 인공지능으로 운전하는 차가 지진이나 해일을 만나 사고가 나면 역시 인공지능의 한계 어쩌고... 할것은 아닌거 같습니다.
16/03/13 23:41
예를 들어 운전 인공지능이 교차로에서 신호를 잘 지키는 차의 비율이 99%이기 때문에 신호 위반을 하는 차에 대해 전혀 고려하지 않는다면 문제가 될테죠.
그리고 횡단보도를 이용하는 보행자의 비율이 월등히 높고 차가 오는 것을 보면 무단 횡단을 하다가도 속도를 보면 어른들은 멈추겠지만 꼬마들이나 만취자들은 그대로 건널 수도 있습니다. 그런데 인공지능의 지나친 일반화 특성 때문에 그대로 달리다 어린이나 취객을 들이받을 수도 있죠. 아니면 운전자를 보호하려 하느냐 보행자를 보호하려 하느냐에 따라 논란이 될 수도 있고요.
16/03/13 23:57
그건 문제 맞구요... 다만 제가 생각하는건 바둑에서 보여준 알파고의 문제는 그정도 일반화까지는 아니라고 보는거죠... 말 그대로, 지진 해일급 아니면 다 대처하는 수준이라고 보는겁니다. 속도위반하는 차량, 어린이, 취객 등은 그냥 PGR에서 '바둑을 아예 모르는 이들을 위한 바둑 기초'글을 읽고 '와 나 이해했어 알파고랑 붙을래'해서 붙게 된 일반인이 일으킬 수 있는 변수 수준이라고 보여져서요 흐 그런 일반인 1조명을 데려다가 별의별 발광 다 떨어도 알파고는 한치의 오차도 없을겁니다. 마찬가지로 1조명의 어린이,취객, 1조대의 속도위반 차량이 와도 알파고 정도의 완성도를 그 비율 그대로 적용되면 다 대응 할거라고 봅니다.
16/03/14 00:27
그런데 구글의 운전 인공지능이 교차로에서 속도를 줄이지 않은 버스와 충돌한 걸로 알고 있어요.
구글이 인공지능의 과실을 인정했고요.
16/03/14 04:00
기계학습(정확히 말하면 AI 문제가 아니라 기계학습의 문제입니다)의 이러한 문제를 평균집착증? 또는 편견? 등으로 해석할수도 있지만..
기계학습 입장에서는 그런 유형의 학습 데이터 부족입니다.. 기계가 학습할 데이터에 그런 유형이 많지 않았기에 그런 문제가 생긴거고.... 만약 그 유형의 문제가 거의 일어나지 않지만 일어날 경우 커다란 문제를 일으킨다면.그런 유형의 데이터를 강제로 많이 보여주는 방식으로 해결합니다.. 아마 신호등 문제 또는 안전 관련 문제의 경우 가장 간단하게는 그런 방식으로 해결할껍니다.. 다만 바둑의 경우는 그런 방식으로 해결하기에는 경우의 수가 너무 많습니다.. 그러다 보니 특이한 행마(돌의 움직임 모양)의 경우는 어쩔수 없이 노이즈화했을 가능성이 크구요.. 안전과 직결된 문제에서는 알려만 진다면.. 충분히 해결해서 나올수 있습니다..
16/03/14 13:49
정확하게 보고 계시는 것 같네요. 솔직히 편견이 없이 만들라면 brute force 알고리즘으로 모든 경우의 수에 대해서 따지면 됩니다. 무조건적으로 최선의 수를 선택할 수 있게 되죠. 그런데 못 쓰는 이유는 컴퓨팅 자원 소모가 너무 많아서 못 쓰는 알고리즘입니다. 그러한 문제 때문에 대부분의 알고리즘들은 이 brute force 알고리즘을 어떻게 간략하게 축약(approximation)하느냐의 문제이고, 어떻게 축약 하느냐에 따라 편견(local maxima)에 빠질 수 밖에 없습니다. 그러한 부분이 알파고의 약점이 될 것이고요.
사실 이러한 부분 때문에 인공지능 때문에 직업이 없어지는 것은 이번 세대 중에 거의 불가능하다고 생각하는데 많은 분들이 과하게 걱정을 많이 하시는 것 같습니다. 기업측에서는 어떻게 돌아가는지 블랙박스인 인공지능이 언제 그러한 편견 때문에 가끔 어디로 튈지 모르는 리스크를 안고 갈리가 거의 없죠.
16/03/14 16:20
편견을 없애는 확실하고 일반적인 방법을 찾아내면 그 회사는 대박이 나겠다는 생각을 한 게 이런 이유 때문입니다.
위에 있는 댓글들 중에는 안전을 위해서는 안전에 관련된 데이터의 양을 증가시키면 된다고 했는데 제 생각에는 한 가지 한 가지 기능에 특화된 인공지능들을 세트로 만들어 시뮬레이션 상황에서 만들어내는 데이터를 통해 특정 목적을 가진 인공지능을 학습시키는 방법이 그것을 가능하게 하지 않을까 합니다.
|