K-SMARTFACTORY

AI & Big Data

ChatGPT에 로봇을 설계시키면 어떤 일이 일어날지

2023-10-26


 

ChatGPT에 로봇을 설계시키면 어떤 일이 일어날지

 

인공지능(AI)으로 인류의 생존이 위험해지는 것은 아닐지 우려하는 사람이 많은 가운데,

AI에 로봇을 설계시키면, 프랑켄슈타인에게 터미네이터를 만들 수 있게 하는 것과 같다고 생각하는 사람도 있을 것이다.

 

어쨌든 미래의 문제 해결을 위해서 기계와 인간이 협력할 필요가 있다고 하면 어떤 상황이 일어날까.

그 협력 관계는 어떠한 상황이 될까. 어느 쪽이 위에서 지시하고, 어느 쪽이 지시를 따르는 아래의 입장이 될까.

 

유럽 ​​연구자들이 실제로 수행한 실험에서 기계와 인간의 협업에 큰 영향을 줄 수 있는 몇 가지 흥미로운 것들이 나타났다.

 

네덜란드 델프트 공대 조교수인 코시모 델라 산티나와 박사과정 프란시스코 스텔라,

그리고 스위스 연방공대 박사과정 조지 허게스는 생성 AI ChatGPT와 협력하여 주요 사회 문제를 해결하기 위한 로봇을 설계하는 실험을 했다.

(https://www.researchgate.net/publication/371397642_How_can_LLMs_transform_the_robotic_design_process)

 

델라 산티나 씨는 Nature Machine Intelligence 에 게재된 논문에서

"우리는 ChatGPT에게 단순한 로봇이 아니라 실제로 유용한 로봇을 설계하도록 했다"고 주장한다.

(https://www.nature.com/natmachintell/)

 

이처럼 연구자들과 챗봇 간에 인간과 기계가 힘을 합하여 어떤 것을 설계할 수 있는지를 조사하기 위한 대화가 시작되었다.

ChatGPT 같은 대규모 언어 모델(LLMs)은 방대한 양의 텍스트와 데이터를 처리해 매우 빠른 속도로 응답을 출력할 수 있는 강력한 도구이다.

ChatGPT는 복잡한 기술 정보를 다룰 수 있는 도구이므로 쓸만한 연구 도우미를 찾고 있는 사람들에게 놀라울 정도로 큰 혜택을 줄 수 있다.

 

기계와 협력하여 일하기

 

산티나씨가 인류사회가 직면하고 있는 문제에 대해 물었더니 ChatGPT는 안정적인 식량 공급 확보 등으로 대답했다.

ChatGPT는 또한 그 분야에서 로봇이 공헌할 수 있는 수단으로 농작물 수확 등을 뽑아 응답했다.

 

연구자들은 이러한 대화를 통해 토마토를 수확하는 로봇을 개발하기로 결정했다.

 

AI의 파트너인 연구자들이 경험이 없는 농업 분야에서 AI가 제안한 것을 실험하였다. AI 파트너인 연구자들에게 매우 도움이 되는 일이다.

자동화로 얻을 수 있는 경제적 이익이 가장 큰 작물을 선택하려고 할 때, 일반적으로 연구자들은 많은 시간을 들여 조사해야 하기 때문이다.

 

허게스씨는 "ChatGPT는 언어 모델로 텍스트 기반 코드 생성 만 가능하지만, 사람에게 물리적 설계에 대한 중요한 통찰력과

직감을 제공하고 창의성을 자극하는 피드백 메커니즘에 큰 도움을 주는 가능성을 띠고 있다”고 말했다.

 

그러나, ChatGPT가 제공한 선택사항을 바탕으로 목표를 달성하기 위해 가장 의미있고 적절한 방향을 선택하여 결정하는 것은 사람이다.

 

지능형 설계

 

이 실험에서 ChatGPT가 가장 위력을 발휘한 것은 토마토의 수확 방법을 검토하는 장면이었다.

토마토 같은 섬세한 과일을 재배하는 일 중에서 가장 어려운 것은 수확이다.

어떻게 하면 토마토를 손상시키지 않고 수확할 수 있는지 물어본 결과, ChatGPT는 그 기대에 부응하여 독창적이고 유용한 솔루션을 생성했다.

ChatGPT는 토마토와 접촉하는 부분의 부품에는 부드러움과 유연성이 필요하다고 응답하였고 사용할 소재의 선택지로는 실리콘이나 고무를 제안했다.

또, 부드러운 로봇 핸드를 제작하는 수단으로 CAD 소프트웨어, 금형, 3D 프린터로 대답했고, 설계 선택지로서 손톱형이나 토마토를 헹구는 형태의 핸드를 제안했다.

 

그 결과는 놀랄만했다. AI와 인간의 협업으로 토마토를 손쉽게 수확하는 로봇의 설계와 제조 수단이 제안되었다.

토마토가 손상되기 쉬운 과일로 생각할 때, 수확을 자동화하는 일은 쉬운 일이 아니다.

 

AI와 인간 파트너십의 위험

 

이번 이색적인 협업 실험에서 인간과 기계가 협력하여 설계를 할 때 중요한 일로 앞으로 점점 복잡한 문제가 발생하는 것으로 밝혀졌다.

 

ChatGPT와의 파트너십은 문제 해결에 대한 서로 다른 분야의 상호협동 연구인 학제적 접근을 가능하게 해준다.

한편 협력 관계의 방식에 따라 결과가 바뀔 가능성도 있으며 이들 모두 큰 의미를 내포하고 있다.

 

예를 들어, 대규모 언어 모델이 특정 로봇의 설계에 필요한 모든 정보를 제공하고 인간은 구현만을 담당하는 협력 관계도 생각할 수 있을 것이다.

이러한 접근법으로 생각해보면 발명을 담당하는 것이 AI이기 때문에 전문 지식이 없는 아마추어도 로봇을 설계하는 일을 할 수 있다.

 

이 관계는 논문 저자들이 이번 토마토 수확 로봇을 만들 때 경험한 경우와 비슷하다.

연구자들은 협업의 성공에 놀란 반면, 그 과정에서 창조적인 일의 대부분을 기계가 담당하고 있다는 것을 깨달았다. 

스텔러는 “우리는 엔지니어로서의 우리 역할이 기술적인 작업에 치우쳤다는 것을 알게 되었다”고 말한다.

 

또한 인간이 통제할 수 없는 부분에 위험이 잠재되어 있을 가능성도 고려할 필요가 있다. 

이 연구에서 ChatGPT는 수확 로봇이 가장 가치를 창출할 수 있는 수확물로 토마토를 선택했다.

그러나 이것은 정말로 필요한 작물이 아니라 문헌에서 많이 다루어지는 작물에 편향될 수 있으므로 문제 발생이나 사실 오인으로 이어질 수도 있다.

 

이 문제는 대규모 언어 모델의 이용과 관련된 중요한 위험 중 하나이다.

겉보기에 훌륭하게 보이는 챗봇의 대답은 일정한 종류의 정보가 미리 주어져 있어 그 일부를 반복하여 얻어지는 것으로

이것은 오늘날 다양한 사회가 의존하고 있는 고전적인 교육 스타일과 같은 종류라고 할 수 있을 것이다.

 

이 때문에 챗봇의 대답은 기본적으로 시스템을 설계한 사람들이나, 입력된 데이터가 가지고 있는 편향성을(선하고 나쁜 것을 불문하고) 반영한 것이 된다. 이것은 여성과 유색 인종과 같은 일부 사람들이 역사적으로 소외되어 온 것과 같이 대규모 언어 모델에서도 재현될 가능성이 있음을 의미한다.

 

더욱이 ChatGPT 같은 대규모 언어 모델에 '환각'(hallucinations)이라는 성가신 문제가 있다.

이것은 간단한 대답이 없는 문제에 직면하면 AI가 거짓말을 짓는다는 것이다.

또 Open AI를 상대로 제기한 몇몇 소송에서 밝혀지고 있는 것처럼 기업의 비밀정보가 허가 없이 사용된다는 문제도 심각해지고 있다.

그러함에도 불구하고 대규모 언어 모델이 보조 역할을 하는 대등한 협력 관계로 접근할 경우ChatGPT로 인해 나타난 학제 간 연결이 생겨 매우 고무적이고 생산적이다.

무언가 새로운 것을 시도해볼 만한 가능성도 있다.

 

정리하면 AI는 아이들 같이 다루어야 한다.

아이들이 숙제나 게임을 한 시간에 대해 횡설수설 말하기 시작하면 아이들이 제시하는 정보를 신중하게 재확인해야 하는 것처럼 말이다.

 

참조 | https://www.zdnet.com/article/partner-helper-or-boss-chatgpt-was-asked-to-design-a-robot-and-this-happened/