PGR21.com
- 자유 주제로 사용할 수 있는 게시판입니다.
- 토론 게시판의 용도를 겸합니다.
Date 2024/06/01 15:37:37
Name 해석기
Subject [일반] LLM에 대한 오해
LLM은 굉장히 유용한 도구입니다. ChatGPT를 시작으로 Claude, Gemini등의 서비스가 나와있고, 많은 사람들이 사용하고 있습니다.

저도 LLM과 관련한 몇 가지 소프트웨어를 개발했었기 때문에 충분히 AI의 발전에 대해서는 공감하고 있지만 그렇다고 해서 이 기술이 인간을 대체할 만한 것이라고는 보지 않습니다.

기술에 대해 폄훼하는 것은 아닙니다. 그냥 딱 현재의 기술만 놓고 냉정하게 봤을 때 인간과 유사한 AGI까지 나오려면 아직 한참 멀었다는 생각입니다.

채팅으로 AI와 이야기를 나눌 수 있다는 면에서 보면 영화에서나 나오던 자아가 있는 인공지능 처럼 느껴질 수 있습니다.
특히나 몇몇 제품은 더욱 그런 쪽으로 보이도록 만들어진 성향도 있습니다.
하지만 실제로 들여다보면 그냥 텍스트 확률 생성기 그 이상도 그 이하도 아닙니다. 현재 시점에서 AGI를 논하는 것도 택도 없는 이야기입니다.

왜 그런지 아주 간단하게 살펴보겠습니다.
아시다시피 LLM은 대규모의 텍스트를 학습시킨 모델입니다.

"아이고! 하늘이 참 [ ]"

이런 문장이 주어졌을 때 [ ]에 들어갈 말을 생성하는 것이 LLM의 역할입니다.

1. 맑구나(44%)
2. 푸르다.(40%)
3. 어두워.(10%)
4. 요상타.(5%)
5. 삐용삐용(1%)

LLM은 위와 같이 뭐가 가장 어울릴지 확률에 기반한 단어들을 만들고, 선택도 확률에 의해서 결정됩니다.
가장 높은 확률인 1번이 선택될 가능성이 높겠지만 낮은 확률로 5번이 채택될 수도 있습니다. 그래서 AI는 같은 질문에도 매번 답변이 다를 수 있습니다.
문제는 그다음 단어도 앞의 단어들에 의해서 결정되기 때문에 1번이 선택되었을 때의 문장과 5번이 선택되었을 때의 문장은 전혀 다르게 전개될 수 있고 이것은 거의 운이라는 것입니다.

자아가 있는 사람이라면 이렇게 랜덤하게 말을 할까요? 어감의 차이만 있을 뿐 자신의 의도를 정확하게 전달하겠지요.

그럼 채팅은 어떻게 하는 걸까요?

인간: 안녕? 너 이름이 뭐니?
AI: 내 이름은 X입니다. 당신의 이름은 무엇인가요?

요렇게 진행했고, 다시 대화를 이어간다고 가정합시다.

인간: 내 이름은 A다.

이때 AI에게 전달하는 데이터는 무엇일까요?
"내 이름은 A다."를 LLM에게 입력해서 응답을 받는 걸까요?
아닙니다.

인간: 안녕? 너 이름이 뭐니?
AI: 내 이름은 X입니다. 당신의 이름은 무엇인가요?
인간: 내 이름은 A다.
AI: [ ]

이렇게 지금까지 나눈 대화 내용을 모두 전달해야 합니다. 그래야 전체 맥락을 파악해서 마지막 [ ]에 들어갈 문장을 생성할 수 있는 것입니다.

하나의 채팅 세션에서 대화의 내용이 길어질 수록 이상한 내용이 나올 수 있는 것은 이런 이유 때문입니다. 지금까지 나눈 내용을 계속 해서 분석해 마지막 AI의 대사를 생성해야되기 때문이지요.

누군가에게 말을 걸때마다 지금까지 우리가 나눈 대화를 모두 전달해야 한다고 생각해봅시다. 이게 대화인가요?

AI는 대화를 기억하는 것도 아닙니다.
아니 정확히 말하면 AI와의 채팅이 아닙니다.
LLM은 그냥 텍스트를 분석해서 적절한 마지막 대사를 생성하는 겁니다.

하지만 ChatGPT 등의 서비스들은 이 사실을 교묘하게 감추고 잘 꾸며서 AI와 대화를 하는 것처럼 보이게 하고 있습니다.

내가 친 대사와 확률에 의해서 적절하게 생성된 텍스트는 앞으로 계속 생성될 텍스트에 영향을 미칩니다.

이런 사실을 알고 LLM을 사용한다면 범인공지능(AGI)은 물론이고 초인공지능도 아직 먼 이야기구나 하고 판단할 수 있을 것입니다.

통합규정 1.3 이용안내 인용

"Pgr은 '명문화된 삭제규정'이 반드시 필요하지 않은 분을 환영합니다.
법 없이도 사는 사람, 남에게 상처를 주지 않으면서 같이 이야기 나눌 수 있는 분이면 좋겠습니다."
24/06/01 15:52
수정 아이콘
그래도 기존과는 다른 점은 적절함을 판정하는 기준이 다르죠.

기존에는 어떤 로직(논리적 구조)에 의해서 적절함을 판정했지만

지금은 인간의 뇌를 모사한 신경망 구조에 적층된 보상회로에 따라 적절함을 판단하고 있기에 사람과 유사한 판정이 가능해 진게 큰 차이라고 봅니다.
안군시대
24/06/01 15:57
수정 아이콘
많은 분들이 내가 대화를 하고 있는 내용을 실시간으로 AI가 다시 학습하고 대답을 해준다고 오해하고 있죠.
물론, 그 내용을 저장 해 놨다가 차후에 학습 자료로 사용할 수는 있을지 몰라도, 실시간으로 학습을 해서 업그레이드가 되지는 않아요.
바람돌돌이
24/06/01 16:19
수정 아이콘
인간의 사고도 비슷하죠. 주어진 상황에 적절한반응을 보이는게 인간이고 고도의 사고능력은 거의 쓸 일이 없죠.
퀀텀리프
24/06/01 16:27
수정 아이콘
LLM이 원리는 꽤 간단해 보입니다.
그런데 코딩 시켜보면 놀랍니다. 이게 다음단어를 예측하는 기능으로 만들어진다고 ?
학습 토큰이 10억개인가를 넘어서는 순간 갑자기 지능이 급상승한다 더군요.
로메인시저
24/06/01 16:29
수정 아이콘
(수정됨) 사람도 별 차이가 없기 때문에...

일일히 한 문답마다 학습한 새 인스턴스를 만들 수가 없기 때문에 통으로 전달하는 겁니다. 그게 더 비용적인 면에서 싸게 치니까요. 그렇다고 해서 이게 대화가 아닌건 아닙니다.
전기쥐
24/06/01 16:46
수정 아이콘
99.9%의 인간의 대부분의 사고방식이 저런 형식으로 이루어지지 않나요.
alphaline
24/06/01 17:14
수정 아이콘
일면식도 없는 사람이 갑자기 나타나서 앞뒤 생략하고
"내 이름은 춘식이다"
하면 인간은 뭐라고 반응해야 할까요.. 경찰이나 안 부르면 다행인 엔딩일듯
숨고르기
24/06/01 17:31
수정 아이콘
(수정됨) 사람 의식의 실체도 충분한 DB를 가진 텍스트 생성기라는 의견이 요즘 대세입니다. 의식이 그 이상의 어떤 것이라는 믿음은 점점 영혼의 존재를 믿었던 과거 중세인이나 데카르트류 심신이원론자 취급을 받게 되는 것 같습니다.
포프의대모험
24/06/01 17:34
수정 아이콘
그걸 기억이라고 해야죠
어차피 인간도 저 확률대로 반응 못하면 정신병이라고 해요
인풋과 아웃풋이 원하는대로 나오면.. 그냥 안쪽은 블랙박스인걸 인정했기때문에 퍼셉트론이 여기까지 온거 아닌가요
호비브라운
24/06/01 17:49
수정 아이콘
"LLM은 그냥 텍스트를 분석해서 적절한 마지막 대사를 생성하는 겁니다."
이 한 문장이 어마어마한 거죠. 인간이 자연스럽다고 느낀 거고 이런 기술은 인류 역사상 처음인데요. 
사비알론소
24/06/01 17:59
수정 아이콘
그걸 우리는 기억이라고 부르고 llm에서는 rag라는걸로 기억을 비슷하게 구현하지요. 사람도 경험이 쌓여서 자아가 생기는거잖아요.
Karmotrine
24/06/01 18:01
수정 아이콘
인풋과 아웃풋이 개발자가 입력한대로 정해진게 옛날이라면 지금은 방대한 db 안에서 적절 확률로 출력해내는 거라는 거네요. 케이스가 많을수록 높은 확률을 가지는 거고.
Karmotrine
24/06/01 18:03
수정 아이콘
별개로 이 글이 인간의 특별한 자유의지나 사고 이런걸 믿으시고 쓰신 건 아닌 듯 하니 빼고 논의하면 좀 더 재미있는 맥락이 나올 것 같아요.
바밥밥바
24/06/01 18:25
수정 아이콘
지금 등장한 인공지능은 전부 '약인공지능'이라 그럴싸해 보이지만 결국 인간이 만든 창조물 이상은 못만드는 한계점은 명확하죠
그 덕분에 인간의 비서 역할 이상은 어렵다는 증거들이 슬슬 나오고 있고(물론 그거라도 응용범위는 정말 무궁무진 하지만)
'강인공지능' 등장 전까지는 AI가 세상을 바꾸는 일은 제한적이지 않을까 생각합니다
(물론 그거만으로도 엄청난 매력이 있는건 맞지만요)
이른취침
24/06/01 18:35
수정 아이콘
사람이 생각보다 똑똑하지 않습니다...
아직도 각 분야의 전문가들과 비교하면 형편없는 수준이겠지만
그걸로 평균을 내면 이미 웬만한 사람들 보단 나을 것 같습니다.
전지구적인 문맹률만 생각해봐도...
raindraw
24/06/01 18:36
수정 아이콘
문제는 저런 문장 생성에서 유추나 계산이 일어나는게 설명이 안되서 본문 만으로는 설명이 안되는 부분이 있다고 봅니다.
크로플
24/06/01 19:39
수정 아이콘
계산 못합니다. 계산은 프로그램을 생성한뒤 돌려서 제공해주고 있죠.
허락해주세요
24/06/01 22:22
수정 아이콘
못 합니다. 이것저것 시켜보면 생각보다 많이 틀려요.
GPT모형은 원리상 그냥 함수가 맞습니다. 다만 엄청나게 복잡한 블랙박스 함수지요.
Quarterback
24/06/02 05:21
수정 아이콘
없습니다
24/06/01 18:37
수정 아이콘
(수정됨) 이거는 제가 AI에 대해서 보면서 예전부터 생각하던건데 결국 인간의 뇌나 사고방식과 유사하게 구성하면 되지 않을까 생각합니다. 인간도 롱텀메모리와 숏텀메모리가 있듯이 LLM은 롱텀메모리라고 하면 최근의 컨텍스트를 들고 있는 숏텀 메모리가 항상 따라다니는거죠 (요즘 SLM이라고 있던데 어떻게 동작하는지는 모르겠네요). 물론 AI와 인간의 다른점은 엄청난 대중을 한번에 마주해야하기 때문에 이에 대한 각각의 대상에 대한 숏텀 메모리를 어떻게 관리하느냐의 문제인건데, 현재의 "모든 컨텍스트를 우리가 제공해야한다"는건 숏텀 메모리의 관리 부분을 대중 쪽에서 관리하게 하는거고, 이거를 LLM쪽에서 들고 있으면 생각하신 문제점은 어느 정도 해결될거라고 봅니다.

저는 오히려 LLM이 현재 해결해야되는 문제는 이 대답이 "확률"기반이라는 점이라고 봅니다. IT 현업에서도 컨텍스트에 따라서 확률이 너무 흔들리기 때문에 특정한 상황에 대해서 LLM에 자동화된 결정권을 줄수가 없고, 최종 결정권자는 언제나 인간이 되어야하는게 가장 큰 걸림돌입니다. 그래서 아직은 언제나 "비서" 또는 "도구"로 활용되고 있죠. 개인적으로는 AI가 제대로 줏대 또는 고집을 가질 수 있게 되는 순간이 모두가 두려워하는 "너희의 직장이 모두 AI로 대체될거다" 라는 상황이 시작되는거라 생각합니다. 근데 사실 당장 지금도 그 과정을 AI가 아니라 그냥 코드에 정확하게 정의해서 넣으면 되기 때문에 굳이 AI를? 하는 상황이 많은 거고요. 아무튼 개발자로서 은퇴전까지는 "저"는 안전하다고 생각이 드는데, 신규 개발자들의 진입장벽이 엄청 올라가고 있는거는 사실인 것 같습니다. 아, 정확하게 말하자면 신규 개발자가 제대로 경력을 쌓아서 고급개발자되는 장벽이겠네요.
번개맞은씨앗
24/06/01 19:38
수정 아이콘
LLM이 심층신경망도 벡터어텐션도 뇌신경망과 유사한 것으로 이는 본질적인 것을 인류가 돌파해낸 거라 봐요. 그러나 확률은 아니죠. LLM에서 확률판단은 이와는 분별해서 봐야 한다고 생각해요. 그것은 사실상 뇌를 모방한 LLM 핵심 알고리즘에 덧붙은, 인위적인 테크닉인 거라 봐요. 뇌에는 확률 따윈 없어요. 대신 대립이 있죠. 억제뉴런을 통한 대립자가 있죠. 그건 철학에서 변증법과 관련된 것이고요.

이렇게도 말할 수 있다고 봐요. LLM의 핵심 알고리즘은 natural 해요. 확률판단은 artificial 해요. 확률판단 부분까지도 natural 하게 만들어야 한다고 봐요. 그러나 인공지능 연구자 입장에서 그동안 축적해온 기술과 경험이 확률과 미분에 있는데, 이를 통해 당장의 고성능도 낼 수 있었던 것인데, 수많은 AI 논문들이 확률과 미분으로 도배되어 있는데, 그걸 포기하고 다른 수단을 찾고자 하는 건 쉬운 일이 아니겠지요.

오늘날 수학의 왕이라 하면 미분이고, 수학의 꽃이라 하면 확률이라 할 수 있지 않나 싶어요. 그런데 확률은 실은 ‘모르는 것을 감추는 세련된 기법’이죠. 그 모르는 부분을 설명하지도 증명하지도 않아도 되고요. 양자역학의 확률이란 것도 마찬가지라고 봐요. 모르는 걸 세련되게 숨긴 거죠. 저 미시세계가 얼마나 깊을지 모를 일인데요. 일단 확률로 다루면 마치 그걸 잘 아는 듯한 느낌이 들고, 그로인해 현대인이 자연에 갖는 신비감이 줄어든 점이 상당히 있다고 봐요. 자연뿐만 아니라 인간에 대해 갖는 신비감도 그런 것 같고요. 그저 확률이어서 문제가 생기는 건 LLM만이 아니고 온갖 것들이 그러한 거라 봐요. 의학연구, 건강정보도 확률이죠. 인과관계가 어떻게 돌아가는지는 대부분 숨겨져 있고, 경험적 확률이 있어서 그걸로 의사결정하길 요구받고 있는 거죠.
번개맞은씨앗
24/06/01 18:57
수정 아이콘
LLM은 ’연상적 직관‘이라 보면 적절하다고 생각해요. 이는 알파고의 ’정책망‘도 마찬가지였고요.

직관만으로는 부족하니 이런저런 알고리즘을 덧붙여서 효용을 높이려는 것이고, 그것이 향후 5년간 많은 발전을 할 잠재력이 있는 거라 봐요. 지금 해볼 수 있는게 많아요. 구글 딥마인드에서도 오픈AI에서도 메타나 테슬라에서도, 어디까지 갈 수 있는지 짧으면 5년, 길면 10년 정도는 해봐야 아는 거겠죠. 그 수준이 전문가들 절반이상이 AGI임을 인정할 정도까지 이르게 될 가능성도 있겠고요. 

그러나 제 생각에 지금 알고리즘들로는 아무리 잘 엮어도, 초지능은 곤란하다고 봐요. 새로운 이론, 새로운 알고리즘이 창조되어야겠죠. 전문가들 다수 견해도 마찬가지인 걸로 알아요. 지금 알고리즘, 지금 이론으로는 부족하다는 거죠. 초지능을 위한 이론은 언제 나올지가 문제인데, 그건 가늠할 수 없는 것이겠지요. 그 이론이 나오기에 제약조건이 없으니까요.

1900년으로 돌아가보자면, 상대성이론이 언제 등장할지 예측할 수 있는게 아니었겠죠. 마찬가지로 초지능을 위한 이론도 우리가 죽을 때까지 수십년간 안 나올수도 있고, 십년 후에 나올 수도 있고, 내년에 나올 수도 있고, 이미 나왔는데 비밀로 하고 있는 것일 수도 있겠지요. 
해석기
24/06/02 12:13
수정 아이콘
동의합니다. 잠재력은 확실하니까 돈이 몰리는거겠죠. 그러다 보니 어쩔수없이 과장도 해야할테고.
바람돌돌이
24/06/03 17:47
수정 아이콘
초지능하고 인공지능은 별도로 둬도 될거 같습니다. 이미 현재 인공지능도 대다수 인류보다 똑똑하고 더 창조적입니다. 초지능은 인간도 가본적이 없는 수준의 지능이라, 그게 목표일 필요가 없다고 봅니다.
탑클라우드
24/06/01 19:14
수정 아이콘
(수정됨) 저는 개인적으로 미국 시장 내 후순위 채권 투자를 나름 열심히 하는 아재인데,
비주류 기업의 후순위 채권에 대한 정보를 얻는 것이 쉽지 않았었습니다.

예를 들어, 미시시피주에 기반을 둔 소매금융 기업의 후순위 채권이면
보통 신용평가사의 신용평가 결과도 없거나 무지성 BBB이고,
회계 결산 문서만 봐서는 당최 이 회사가 채권 만기 시까지 망하지 않을지 확신할 수가 없더라구요.

근데, LLM을 사용하기 시작한 후 정보의 수집이 너무 쉬워졌습니다.
예를 들어, 최근 특정 공매도 세력의 리포트로 인해 가격이 급락한 채권이 있었는데,
그동안은 계속 구글에 반복적으로 검색을 해도 사유를 알기가 어렵더라구요.
근데 설마하며 copilot에 물어봤더니 대뜸 너무 아무렇지 않게 사유를 대답해줘서 놀랐습니다.
그래서 그와 관련한 기사와 리포트를 보여달라고 했더니,
미시시피주 지역지의 기사까지 보여주더라구요.

투자야 성공할 수도, 실패할 수도 있지만,
일단 이유를 명확히 알고 판단해서 투자 여부를 결정하게 되니 자신감이 많이 상승하더군요.

물론 결과는... 누구도 알 수 없지만 흐흐흐
번개맞은씨앗
24/06/01 19:49
수정 아이콘
결국 투자자 개개인이 정보수집이 쉽고 빨라지면, 자본주의 시장경제 전체에는 이로운 거 아닐까 싶어요. 누군가 벌면, 누구는 잃는게 주식시장이요 채권시장이겠지만, 전체 파이는 커질 거라 생각해요. 
탑클라우드
24/06/01 20:28
수정 아이콘
저도 비슷한 생각입니다. 증권회사 지점 찾아가서 소파에 앉아 전광판 바라보던 시절엔 도대체 개인이 어떻게 투자로 돈을 벌었던건지... 허허허
롯데리아
24/06/01 19:52
수정 아이콘
저도 비슷한 방식으로 투자를 해보고 있는데 얘가 믿고 감탄할만 하면 갑자기 구라를 섞어 넣어서 난감합니다...
탑클라우드
24/06/01 20:27
수정 아이콘
아... 사실 저도 비슷한 경우가 왕왕 있긴한데, 추가로 찾아서 따지면 바로 죄송하다고만... 아놔;;
해석기
24/06/02 12:07
수정 아이콘
LLM은 정보수집용이 아니라 정보분석용으로 쓰는게 맞는것 같습니다.
24/06/01 20:29
수정 아이콘
중국어 방...!
24/06/01 20:49
수정 아이콘
계속 발전중이지만 분명히 불완전한 모습을 보여주는 상황에서의 LLM의 가장 강점은 인간이 음성을 포함한 자연어로 쓰기 편하다는 거 아닐까 합니다. 불편하기까지 했으면 어느정도 완성도를 보여줄때까지 계속 상용화하기 힘들고 파급속도가 기하급수적으로 약화될 수 있는데 다행히 LLM에 의해 개떡같이 말해도 찰떡같이 알아듣고 대답해주는게 쓸만하다 느껴질수 있을테니까요
김승남
24/06/01 21:25
수정 아이콘
사람에게 2개를 물어보면 1개 내지는 0.5개의 답만 얻을 수 있는 경우가 대부분이라(경우에 따라선 -0.5개가 되기도 하고요)
아무리 궁금한게 많아도 한번에 하나만 물어보거나 요청하는게 거의 국룰 아닌가요..? 그런걸 생각해보면 현재의 GPT만 해도 실로 어마어마한 도구라고 생각합니다.
붕붕붕
24/06/02 09:02
수정 아이콘
사람과 llm은 전혀 다릅니다만?
Agi도 사람마다 생각하는게 다르죠. 모든 영역은 불가능하지만 대부분의 영역에서 사람보다 뛰어난 인공지능이 5년 안에 나올 것이란건 그리 틀리지 않았다고 봅니다.
제발존중좀
24/06/02 11:59
수정 아이콘
글쓴이님께서 인공지능에 대한 이해가 더 부족하신거 같아요.
인공지능에 대한 정의와 개념에 대해 다시 생각해보시면 좋을것 같네요.
현재 상태에서 기술적 도약이나 패러다임 전환으로 다른 방식으로 인공지능이 개발되더라도,
사실 열어보면 그냥 계산기에 다름없을 확률이 높습니다.

하지만 중요한건 그것의 실체보다는 기능에 따라 인공지능의 수준을 판단하는것이 맞는 거죠.
튜링 테스트가 왜 존재하는지 부터.. 그냥 인공지능 기술에 대한 기본지식이 부족하신것같아요.

누가 보면 chatgpt가 사기라도 치고 있는줄 오해하겠네요. 오해는 글쓴이님이 만들고 계신듯;
마동왕
24/06/02 17:51
수정 아이콘
인간의 사고가 그리 대단하지 못하다는게 LLM이 시사하는 부분이라고 생각합니다.
티오 플라토
24/06/03 00:29
수정 아이콘
저는 현재 인간과 LLM의 가장 큰 차이는 감각의 다양성이라고 생각합니다. LLM의 지식량이 아무리 늘어도 인간의 오감이 없으면 어떤 현상에 대해 이해가 깊어질 수 없는 법이죠. (LLM은 학습 과정에서 '사과'라는 개념을 문맥상에서만 봤겠지만, [실제로] 보거나 냄새맡거나 맛보거나 만져보거나 듣거나 하지 않았죠)
하지만 텍스트로 배운 것의 최대치는 점점 찍어가고 있지 않을까요? 원래 AI는 해 보면 '이게 왜 되는 지 모르겠지만 잘 되네?' 하게 되는 영역이니까요 크크
최근에 멀티모달이 되면서 이미지, 음성처리가 가능해졌는데 모델 구조가 어떤지 몰라서 앞으로 어떻게 될 지 확신은 들지 않지만.. 감각의 종류가 다양해져야만 인간지능에 가까워지지 않을까 합니다.
나아가 나중에 정밀한 기계식 센서를 달고 '인간보다 더' 감각에 예민해지면 진정한 의미에서 인간을 초월하지 않을까요?
24/06/03 23:10
수정 아이콘
채팅 내의 메모리 부분이나 실시간 재학습 부분은 리소스 때문에 기능적으로 제한하는 것이지 안 되는 게 아닌데요. 지금도 채팅하면서 어떤 포인트별로 해당 뭐가 저장됐다고 뜹니다. 그 세션에서 일관적으로 적용해야하는 어떤 컨셉을 받았을 때 그걸 계속 활용하려고요.

그리고 지금 3.5 출시된지 2년이 안 됐는데 이 속도인 건 아무리봐도 너무 빠른데요. 인간 최상의 영역과 현재 챗GPT를 비교하지만 기본적인 시험테스트는 인간의 평균을 넘고 확률로 맥락없이 랜덤하게 뒷 단어를 제시한다는 부분도 멀티모달이 발달하고 그게 실시간으로 끊김없이 정보를 넣어주기만 해도 맥락은 생기는 겁니다. 텍스트 외의 인풋이 계속 들어갈테니까요.
해석기
24/06/04 09:15
수정 아이콘
제 생각은 얀 르쿤의 입장과 비슷합니다.
“LLM은 논리에 대한 매우 제한된 이해를 가지고 있으며, 물리적 세계를 이해하지 못하고, 지속적인 기억을 가지지 않으며, 어떤 합리적인 정의로도 추론할 수 없고, 계층적으로 계획을 세울 수 없다”
LLM이 유용한것은 글에서도 언급했듯이 이견이 없습니다.
AI 발전이 빠르게 진행된다는 것도 동의합니다만, AGI를 생각해보면 아직도 많은 기술적 도전이 남아있는것 같습니다.
목록 삭게로! 맨위로
번호 제목 이름 날짜 조회 추천
101617 [일반] 돈과 시간으로 행복을 살 수 있을까? [57] 모찌피치모찌피치12565 24/06/01 12565 26
101616 [일반] LLM에 대한 오해 [39] 해석기11275 24/06/01 11275 0
101614 [일반] 한국 군대는 왜 개판이 되었나 [38] 고무닦이10608 24/06/01 10608 9
101613 [정치] 윤석열 대통령 취임 후 최저 여론조사 지지율인 21%가 나왔습니다. [112] 빼사스18888 24/05/31 18888 0
101612 [정치] 직업군인의 처우개선이 안되는 이유.횡설수설 [40] 주먹쥐고휘둘러9951 24/05/31 9951 0
101611 [일반] 주택구매 기준에 대한 짧은 생각 [32] whoknows10497 24/05/31 10497 20
101610 [일반] 실존적 공포를 이야기하는 AI [37] 여행의기술12086 24/05/31 12086 2
101609 [일반] [방산] 천궁 사세요, 천궁 [32] 어강됴리10450 24/05/31 10450 4
101607 [일반] 사랑은 변하는 걸까? - 어지러움에서 파생된 한자들 [13] 계층방정7711 24/05/31 7711 10
101606 [일반] 잘 나가던 밴드 키보디스트가 재벌에 비수를 꽂는 내부고발자가 되었다!!! [14] 매번같은10679 24/05/31 10679 8
101605 [일반] 트럼프 '입막음돈' 형사재판 배심원단, 34개 혐의 모두 '유죄' [19] Davi4ever10478 24/05/31 10478 1
101604 [정치] 대통령과 김치찌개와 축하주와 웃음, 그리고 훈련병. [55] 덴드로븀12916 24/05/31 12916 0
101603 [일반] 인분 이슈가 있었던 빛과진리교회 관련 재판이 모두 마무리되었습니다. [12] 뜨거운눈물10101 24/05/30 10101 1
101602 [정치] R&D를 죽였지만 달에는 가고 싶어 [75] 네야12988 24/05/30 12988 0
101601 [정치] 헌정사상 첫 검사 탄핵소추 기각 [37] 몰라몰라12330 24/05/30 12330 0
101600 [정치] 저출산 대책은 이제 그만 [63] 번개맞은씨앗12421 24/05/30 12421 0
101599 [정치] 서울고법 "최태원, 노소영에 1조3천800억원 재산분할" [123] 매번같은12713 24/05/30 12713 0
101598 [일반] PGR 보고 달리기 시작한 런린이! 마라톤 5km 30분 달성했습니다! (아무래도 우주전쟁님이 날 속인거 같아!) [22] bifrost6866 24/05/30 6866 27
101597 [일반] 전기차를 타보고 느끼는 의외의 장단점 [122] 시무룩11177 24/05/30 11177 9
101595 [정치] 정부 "간호법 국회 통과못해 안타까워…시행시기 단축 논의" [47] 조선제일검13381 24/05/30 13381 0
101594 [정치] 군인을 버린 사회 [90] 시드마이어14339 24/05/29 14339 0
101593 [일반] 6/1 댄스 버스킹에 놀러오세요! (여의도 한강공원) [12] 메존일각7122 24/05/29 7122 13
101592 [정치] 채상병 관련 전 대대장 입장문 및 윤승주 일병 모 입장문 [76] 덴드로븀13855 24/05/29 13855 0
목록 이전 다음
댓글

+ : 최근 1시간내에 달린 댓글
+ : 최근 2시간내에 달린 댓글
맨 위로