[시리즈 미리보기]
① 초급의 탈을 쓴 중급 난이도의 [개념 사전]
② 미래의 생성형 AI & 생성형 AI를 위한 미래 (→ 우리는 지금 여기에 있어요!)
초급을 가장한 중급 난이도의 콘텐츠입니다. 쉽게 읽히지만 의외로 생각지 못한 유용한 정보를 가져갈 수 있을 거예요. 생성형 AI 관련 꼬리에 꼬리를 무는 다양한 질문과 명쾌한 답변들, 그리고 가까운 미래의 생성형 AI를 예측해 보면서 우리는 어떤 부분에 대해 경각심을 갖고 AI를 바라보고 또 활용해야 할지에 대한 쉽고 친절한 문답서를 만들어 보았어요. 아는 것은 분명하게, 헷갈리는 것은 선명하게 알려드릴게요.
가까운 미래의 생성형 AI는? (feat. 핑크빛 전망💗)
1) 사용 중에도 끊임없이 업데이트되는 생성형 AI
지금의 생성형 AI는 학습을 마친 후 배포됩니다. 사용자가 입력한 데이터를 기반으로 모델이 업데이트되지는 않지요. 과거 어느 시점까지의 지식을 보유하고 있어서 특정 질문에 대해서는 답변을 거부하기도 합니다. 지어낸 듯한 이상한 답변(환각 현상)을 하기도 하지요. 세계 최정상 AI 전문가인 제리 카플란은 책 '생성형AI는 어떤 미래를 만드는가'에서 "사용 중에도 끊임없이 업데이트가 가능하고, 사용자가 입력한 내용을 통해 현재 일어나는 사건을 배우면서 여유로울 때 스스로 모델을 정비할 수도 있을 것"이라고 다음 단계의 생성형 AI 모습을 전망했습니다.
2) 목적에 따른 버티컬 생성형 AI의 탄생
어떤 특정 카테고리에 전문화된 생성형 AI를 생각해 보셨나요? 제리 카플란은 "전염병을 진단하고 적절한 항생제를 추천하는 시스템을 구축하는데 유럽 역사를 학습시킬 필요는 없을 것"이라고 말합니다. 사용자의 필요에 따라 골라 쓸 수 있는 특수 목적의 버티컬 생성형 AI가 탄생하리라는 예측인데요. 범용화된 LLM 모델을 활용하지 않고 업종 특성에 따른 LLM 모델을 취사 선택할 수 있는 그런 날이 가까워지지 않을까 싶습니다.
3) 생성형 AI와 함께할 새로운 직업들
생성형 AI가 나날이 발전하는 만큼, 이것을 잘 다루고 적절하게 가공할 전문가가 필요한데요. 생성형 AI와 함께할 새로운 직업군에는 어떤 것들이 있을까요? 제리 카플란은 아래 4가지 직업군이 필요해질 것이라고 내다봤습니다.
프롬프트 엔지니어(Prompt Engineer) |
생성형 AI로부터 유용한 결과를 도출하거나 목적에 맞게 작동하도록 길들이는 역할 |
데이터 구성가(Data Wrangler) |
전문 영역 또는 특수 목적에 따라 생성형 AI를 위한 학습 데이터를 수집하고 정리하는 역할 |
강화학습(RLHF)1)전문가 |
생성형 AI의 가이드를 정하는 강화학습 부문에서 AI 성능을 최적화하는 역할 |
생성형 AI 전문 소프트웨어 엔지니어 |
다양한 목적에 맞는 생성형 AI를 전문적으로 개발하는 역할 |
생각해 볼 부분들 (feat. 잿빛 전망😱)
[종이 클립 최대화 기계 가설 : 초인공지능2)에 대한 우려]
옥스퍼트대학의 닉 보스트롬(Nick Bostrom) 교수가 제시한 '종이 클립 최대화 기계(Paperclip Maximizer 사고실험)'라는 가설3)이 있습니다. '최대한 많은 종이 클립을 만들어 줘.'라는 명령을 받은 인공지능이 있다고 가정했을 때, 이 AI는 얼마 지나지 않아 인간을 불필요한 존재로 여기게 되는 것이죠. 지구상에서 클립 생산에 필요한 원재료를 경쟁적으로 많이 소비하는 것이 인간이기 때문입니다. AI는 종이 클립 생산의 최대화를 위해 인류를 제거하고 온 지구를 종이 클립 제조실로 바꿉니다. 머지않아 우주는 종이 클립과 클립 제조기로 가득 차게 되지요.
닉 보스트롬 교수는 이 가설을 예로 들어 초인공지능의 위험성을 경고했는데요. AI가 목표 달성을 위해 설계자의 의도를 벗어난 파괴적 결정을 할 가능성은 없을까요? 반대로 설계자가 생각지 못한 비윤리적 맹점을 발견한 AI가 이것을 악용하지 않기로 스스로 결정할 가능성은 없을까요? 혹자는 종이 클립 최대화 AI에게 "단, 사람을 죽이지 말 것"이라는 단서를 붙이면 괜찮을 것이라고 말합니다. 하지만 AI는 종이 클립 생산의 최대화를 위해 모든 식물을 죽이거나 인간 외 모든 동물을 죽일 수도 있지요.
[LLM이 자동 생성하고, LLM이 자동 축약하는 세상]
미래의 LLM은 방대한 양의 데이터를 처리해 자동화하는 본인의 특기를 아주 잘 살릴 가능성이 높습니다. 하나의 예로 LLM이 광고를 자동으로 생성한다면, 기업은 최소한의 리소스로 많은 광고를 빠르게 발신할 수 있게 되겠지요. 고객은 이러한 기업들로부터 매일 수백통의 광고 메시지를 받게 될지도 모릅니다. 이때 고객은 LLM을 활용해 수백통의 광고를 압축한 요약본 카탈로그를 확인할 것입니다. 결국 한쪽에서는 무한히 메시지를 생성하고, 다른 한쪽에서는 무한이 축약하는 것을 하게 되겠지요.
광고를 만드는 LLM은 '축약' 과정에서 살아남기 위해 특이한 단어나 과격한 말을 사용할 수도 있습니다. 괴랄하거나 엉뚱한 표현을 써야 생략되지 않고 살아남을 수 있을 테니까요. 고객은 방대한 메시지를 직접 확인하지 않고, LLM이 선별한 정보만 확인합니다. 대부분은 필요한 정보에 대한 필터링 결과를 보겠지만, 나에게 진짜 필요한 정보가 탈락될 가능성이 '0(제로)'은 아닐 것입니다. 내가 아니라 알고리즘의 결정에 따라 필요성이 판단된 것이니까요. 그렇다면 또 다른 생각이 꼬리를 뭅니다. LLM 알고리즘이 나를 대변할 수 있을까요? LLM의 축약 콘텐츠를 순수한 '정보'로 신뢰할 수 있을까요?
1) Reinforcement Learning from Human Feedback, 휴먼 피드백을 통한 강화 학습
2) 초인공지능 : 인간의 수준을 뛰어넘는 고차원적 사고를 가진 AI
3) AI May doom the Human race within a century, 2014, Huffington Post
미래의 생성형 AI를 예측하고 상상해보는 이 콘텐츠가 어떠셨나요?
생성형 AI 관련 콘텐츠를 더 읽고 싶다면, 아래 리스트를 참고해 보세요!
두 살배기 생성형 AI와 지금 많이 놀아줘야 하는 이유🤔
AI 시대, 이커머스 마케팅의 새로운 전술 3가지👀
[플래티어 인사이트 리포트] 위기의 이커머스에 제시하는 AI 대응전략📈