구글 Bard도 드디어 한국어 지원이 시작됐다. 그 외에 업데이트된 사항도 업데이트 페이지에서 확인할 수 있었다.
이번 업데이트는 23년 5월 10일, 그러니까 포스팅 기준 어제 적용된 업데이트다.
간략히 요약하면 1) 한국어, 일본어 지원 추가, 2) Bard로 생성한 콘텐츠를 Google Docs, Gmail 내보내기추가, 3) 다크모드(ㅎㅎ)이다.
Bard 지원 국가 및 언어 확대
내용: 이제 Bard에서 미국 영어 외에 한국어와 일본어도 지원합니다. 또한 위 3개의 언어로 180여 개국에서 Bard를 사용할 수 있습니다.
이유: Google은 실제 피드백을 바탕으로 책임감 있게 Bard를 개발해 나가면서 시간이 지남에 따라 더 많은 언어, 국가, 지역으로 지원 범위를 넓히고 있습니다.
Google Docs 및 Gmail로 내보내기
내용: Bard에서 생성한 콘텐츠를 클릭 한 번으로 서식과 함께 Google Docs 및 Gmail로 내보내는 옵션을 새롭게 추가했습니다.
이유: Bard의 대답을 내보내고 이러한 Google Workspace 앱에서 직접 수정할 수 있도록 하여 사용자의 작업 속도를 높이고 워크플로를 간소화하기 위함입니다.
어두운 곳에서도 편안한 사용
내용: 이제 Bard에 어두운 테마가 적용되어 밝은 배경에 어두운 텍스트가 표시되는 화면과 어두운 배경에 밝은 텍스트가 표시되는 화면 중 간편하게 선택하여 사용할 수 있습니다.
이유: 어두운 테마를 사용하면 어두운 곳에서도 눈의 피로를 줄이고 Bard를 편하게 사용할 수 있습니다.
Bard 한글/영어 입력 시 결과 비교 테스트
번역 프로그램을 돌려서 한글 -> 영어로 변환한 뒤에 프롬프트에 입력하는 수고로움이 줄어들어서 좋을 것 같다. 하지만 chatGPT처럼 결과가 언어에 따라서 다르게 나올 수 있기 때문에 간단히 테스트를 해봤다. 테스트에 사용한 원문은 딥러닝 선구자 중 한 명인 제프리 힌튼이 구글에서 퇴사하기 전 MIT 테크 리뷰와 인터뷰한 내용이다.
Geoffrey Hinton tells us why he’s now scared of the tech he helped build
“I have suddenly switched my views on whether these things are going to be more intelligent than us.”
www.technologyreview.com
인공지능 디스토피아 영화를 많이 보기도 했고, 개인적으로도 공감하는 내용이 많아서 재미있게 읽었다. 관련된 칼럼도 있으니 관심 있으신 분은 참고.
테스트는 한국어 질문을 만든 뒤에 기계 번역을 돌려서 영어 질문을 만들고 결과가 어떻게 나오는지 확인했다.
질문 1
첫 번째 질문의 답변은 한국어 답변이 4 단락으로, 영문 답변은 1 단락으로 나왔다. 한국어 답변의 내용이 길이도 길고 더 구체적으로 요약하고 있다. 단순한 질문에 대한 답변의 경우 한국어로도 괜찮은 답변이 나오고 있다.
https://www.technologyreview.com/2023/05/02/1072528/geoffrey-hinton-google-why-scared-ai/ 이 주소의 기사를 읽고 요약해 줄 수 있어?
https://www.technologyreview.com/2023/05/02/1072528/geoffrey-hinton-google-why-scared-ai/ read the article in the given url and summarize
질문 2
우선 질문의 의도는 기사 중간중간에 나오는 소제목 기준으로 기사의 내용을 나눠서 요약해 주길 기대했다.(태그로는 h3) 그런데 Bard가 중요하다고 생각하는 내용 위주로 요약 문장을 만들어주고 있었다. 그리고 두 번째 질문에 대한 결과는 아까와는 반대의 양상이다. 한글 요약은 짧고, 영문 요약은 길어졌다. 그리고 Bard는 개괄식 답변을 좋아하는 것 같다.
질문 3
다음은 기사의 내용 중 일부에 대해서 질문을 해봤다. 정답은 'few-shot learning'인데 여기서는 전이 학습(transfer learning)을 답변하고 있다. 같은 콘텍스트 안에서 질문했지만 기사 본문이 링크로 주어져있어서 해석이 힘들었을 것 같기도 하다.
기사에 따르면 인공지능은 새로운 기능을 학습하는데 많은 데이터가 필요하다고 하지만 LLM은 '이것'을 통해 많은 데이터 없이도 새로운 기능을 사람만큼 빠르게 배울 수 있다고 한다. '이것'은 뭐야?
According to the article, AI needs a lot of data to learn new functions, but LLM can learn new functions as fast as humans without much data through "this". What is this?
질문 4
마지막 질문은 질문 3의 답이 틀렸다고 입력해 봤다. 한국어 대답은 처음 답변을 빼고는 다 짧게 나온다. 그리고 짧아서 내용의 구체성도 떨어질 수밖에 없는 것 같다. 반면에 영어 대답은 Few-shot learning에 대한 설명과 실수를 해서 미안하다고 사과까지 한다. ㅎㅎ
사실 나는 'fet-shot learning'이라고 대답할 줄 알았어
I actually expected that you would say few-shot learning
이렇게 간단히 Bard가 한국어 질문에도 답변을 잘하는지 영어 질문 결과와 비교해 봤다. 프롬프트 엔지니어링을 하면 결과는 무조건 향상될 텐데, 일단 단순 결과만 봤을 땐 영어로 답을 받는 게 더 나을 것 같다.
생성 AI 경쟁이 본격화되고 있다. AI에 대한 기대와 우려가 섞여있지만 바람직한 방향으로 발전하기를 기대해 본다.
'Tech' 카테고리의 다른 글
LLM 개발자라면 알아야 할 숫자들 (0) | 2023.05.24 |
---|---|
MS Build 행사 공유 (5.23~5.24 온라인 또는 시애틀) (0) | 2023.05.23 |
ChatGPT 무료 세미나 & 리소스 (2) | 2023.05.08 |
ChatGPT로 인한 새로운 패러다임 세미나 참석 후기 (0) | 2023.05.03 |
Google Bard 사용기 & ChatGPT 결과와 비교 (0) | 2023.04.26 |