차이

문서의 선택한 두 판 사이의 차이를 보여줍니다.

차이 보기로 링크

로봇_비전의_시각 [2017/08/09 18:42] (현재)
wikiadmin 만듦
줄 1: 줄 1:
 +====== 로봇 시각의 비전 ======
 +로봇이 작고, 더 똑똑하고,​ 협업적이더라도 로봇의 시각 능력은 주로 빈피킹(Bin-picking) 및 부품 정렬에만 국한되어 있다. 그러나 비전 시스템의 기술 향상 및 비용 절감은 로봇 공급 업체와 생산 현장에서 로봇을 사용하는 제조업체 모두에게 이전보다 더 쉽게 접근 할 수 있게 하여, 새로운 응용 프로그램의 문을 열어 주었다.
 +
 +시각 보조 로봇은 품질 관리, 정밀 제조 및 제품 분류와 같은 새로운 제조 작업을 수행할 뿐만 아니라 인간-로봇 협업의 역할도 담당한다. 그리 멀지 않은 미래에, 비전은 로봇 지능을 필요로 하는 애플리케이션을 위한 기계 학습을 지원할 수 있을 것이다.
 +
 +대부분의 다른 기술의 경우와 마찬가지로,​ 비전 시스템의 비용은 스스로의 능력이 크게 증가함에 따라 반비례적으로 작용한다고 National Instruments의 제품 마케팅 매니저인 Brandon Treece은 말한다.
 +
 +"​이미지를 분석하는데 필요한 계산 능력은 처리-집약적이다."​ Treece는 컴퓨터 칩이 비싸지 않으면서 더 많은 능력을 갖추었다고 설명했다. 향상된 처리능력과 더불어, 로봇 비전 시스템의 필수 요소인, FPGA (Field-Programmable Gate Array), 그래픽 처리 장치 (GPU) 및 카메라 자체에 대한 품질 향상이 실시되었다.
 +
 +FPGA는 특정 시각의 용도(기본적으로 소프트웨어처럼 동작하도록 프로그래밍된 하드웨어)로 구성된 재프로그래밍이 가능한 집적회로(IC)이다. National Instruments(NI) 및 다른 도구의 도움을 받아, 비전 전문가가 아닌 기술자가 현장에서 FPGA를 설치하고 프로그래밍 할 수 있다. 이전에는 비전 전문가들의 높은 비용으로 인해 많은 기업들이 이 기술을 채택하지 못했었다. ​
 +
 +**바로 소프트웨어로**
 +
 +최근의 또 다른 비전 시스템 향상: 소프트웨어 제조업체인 IntervalZero의 현장 엔지니어링 디렉터인 Jerry Leitz는 소프트웨어로 로딩 할 수 있는 방식의 변화로 인해 이미지가 이전보다 빠르게 처리 될 수 있다고 전했다.
 +
 +전통적으로 카메라는 정보를 프레임 그래버 (frame grabber)를 통해 이미지를 캡쳐 하여 시각적 데이터를 해석하는 소프트웨어가 설치된 컴퓨터로 보냈다. 이 소프트웨어는 부품 크기, 배치 및 기타 요인에 따라 부품이 올바른 위치에 있는지를 판단할 수 있다. 현재는 산업용 카메라의 인터페이스 표준인 GigE Vision을 사용하여 이더넷 네트워크를 통해 비디오 및 데이터를 컴퓨터 소프트웨어로 즉시 전송할 수 있다. "​GigE는 프레임 그래버보다 빠르다. 이미지는 곧바로 PC로 전송된다. "​라고 Leitz는 말한다. "​이제 추세는 프레임 그래버를 제거하는 것이다."​
 +
 +하지만 제조업체가 약 5년 동안에 걸쳐 GigE에 접근 할 수 있었지만 완전히 그것을 채택하지는 못하고 있다.
 +
 +일부 집약적인 비전 응용 프로그램의 컴퓨터는 여전히 프레임 그래버를 요구한다. 이에, GigE Vision은 윈도우 소프트웨어를 실시간 운영 체제로 전환시키는 수백 가지의 비전 응용 프로그램을 만들었다.
 +
 +**비전은 로봇 행동을 지시한다**
 +
 +전통적인 비전 로봇은 주로 인쇄 회로 기판(PCB)과 같은 구축할 대상을 찾기와 빈피킹(Bin-picking) 또는 재배열하는 작업에 사용이 된다, 라고 Yaskawa America Motoman Robotics Division의 소프트웨어 제품 매니저 인 Keith Vozel은 말했다. ​
 +
 +여기에는 로봇이 할 일을 결정하게 하는 것도 포함된다. "​로봇 컨트롤러에 정보를 제공하고 로봇에게 무엇을 해야 하는지 알려주지 않아도, 비전 시스템이 이러한 결정을 내릴 수 있다."​라고 Vozel은 말한다.
 +
 +예를 들어, IntervalZero 고객 중 하나는 리사이클 프로그램에서 로봇 비전을 사용하여 원하지 않는 항목을 자동으로 분류한다. "​리사이클 시스템에서 컨베이어를 따라 빠르게 내려 오는 모든 모양과 크기의 재질을 구분하며,​ 계속해서 그것의 이미지를 얻는다."​라고 Leitz는 말했다.
 +
 +이 경우 비전 시스템은 특정 모양, 크기 및 색상을 기준으로 항목을 선택하도록 프로그래밍 된다. "2 인치 × 2 인치 크기의 물체가 있고, 그것이 찾고있는 색상이라면 시스템은 물체가 컨베이어 벨트의 어느 부분에 있는지 알고 있다."​라고 Leitz는 설명한다. "​그들은 발에 고정된 공기 노즐을 가지고 있으며, 공기 노즐은 자동으로 켜져 그 재료 조각에 공기를 불고, 벨트에서 그것을 용기 안으로 날려 버린다."​
 +
 +리사이클링 기능은 2009년에 Carnegie Mellon University (CMU)에서 수행 한 작업을 기반으로 한다. 연구원은 Intel Research Pittsburgh의 공동 작업자와 함께, 3D 이미지를 만들기 위해 여러 이미지의 정보를 병합하는 시스템을 개발했다. 모서리나 질감 영역과 같은 특성에 초점을 맞춤으로써,​ 객체 인식 알고리즘은 잡동사니의 더미 속에서 특정한 물체를 발견할 수 있다.
 +
 +CMU 로보스틱스 기관의 연구를 주도한 Alvaro Collet Romea박사의 말에 따르면, 특징들 간의 충분한 공통점을 발견하면 알고리즘은 사물을 식별하는데,​ 이 때 비전 로봇이 서로 닮지 않은 수많은 사물들을 구별하고 타겟을 집어 내는 데 사용될 수 있다.
 +
 +전체 객체가 아닌 하나의 객체의 기능을 찾음으로써 비전 시스템은 전통적인 알고리즘에 의존하는 것보다 빠르게 객체를 인식할 수 있다고 Rome는 말한다. 심지어 시스템은 부분적으로 가려져있는 물체를 식별하고 선택 할 수 있다.
 +
 +또 다른 IntervalZero 고객은 알약의 개수를 계산하기 위해 비전을 사용한다. 알약은 실시간으로 이미지를 수집하고 분석하는 카메라의 앞에서 "​폭포처럼"​ 떨어진다. 캡슐 수가 특정 수에 도달하면 시스템이 자동으로 컨베이어를 밀어서 각 병에 동일한 개수가 되도록 한다.
 +
 +비전은 또한 정밀 제조 분야에서 높은 정확도와 적은 오차의 로봇 기술을 강화하고 있다. 예를 들어, 스마트 폰 제조업체는 물건이 표적 위치에서 10m/​sμm이내에 위치하도록 요구할 수 있다. 머신 비전 시스템을 제조하는 Cognex의 글로벌 솔루션 마케팅 이사인 John Petry가 말하기를,​ 비전 소프트웨어는 이러한 종류의 정확성을 가능하게 하고, 여러 제조 라인을 병렬로 작동시켜 동일한 작업을 동일한 수준의 정확도로 수행 할 수 있도록 해준다.
 +
 +한편 보정 소프트웨어는 비전 시스템 내에서 카메라 렌즈 또는 원근감 왜곡을 보정하고,​ 카메라와 로봇을 연결하므로 "​로봇이 부품과 관련하여 어디 있는지 항상 알 수 있다."​라고 Petry는 말한다.
 +
 +**함께 일하다**
 +
 +한편, 카메라는 계속해서 인간과 직접적으로 작업 할 수 있는 새로운 종류의 로봇인 협업 로봇을 만들어내는데,​ 특히 이 협업 로봇은 움직이는 물체나 사람을 만났을 때 로봇 팔의 작동을 자동으로 중지시키는 안전 시스템을 내장 하고있다. Autodesk의 수석 연구원 인 David Thomasson은 협업 로봇이 앞으로 다가올 제조 및 건설 산업에 상당한 영향을 미칠 것이라고 말했다.
 +
 +예를 들어 Universal Robots의 협업 로봇은 안전한 장소에 고정되 있는 기존의 산업용 로봇과는 달리, 공장 내에서 돌아 다닐 수 있다. 또한 Universal Robots '​Americas Division의 총책임자인 Scott Mabie는 이 협업 로봇은 1분 이내에 리프로그래밍 될 수 있다, 라고 말했다.
 +
 +마찬가지로,​ Rethink Robotics의 협업 로봇은 일을 완수 할 수 있도록 현장 제조 직원에게 훈련을 받는다. 트레이너는 로봇을 다양한 위치로 이동시키고 수행해야 할 작업을 보여준다. 로봇 제조사의 수석 제품 및 마케팅 담당자인 Jim Lawton은 비전 시스템과 결합된 온 보드 소프트웨어를 통해 로봇이 이러한 작업을 학습 할 수 있다고 말한다.
 +
 +Rethink Robotics의 Baxter 및 Sawyer 로봇에는 머리와 팔에 카메라가 내장되어 있다. Sawyer에는 조명도 구분한다. "​우리는 조명이 얼마나 중요한지 배웠다. 아침에 훈련 된 로봇은 빛이 바뀌거나 태양이 아래로 내려 갔을 때 작동하지 않기 때문이다."​라고 Lawton은 말한다.
 +
 +내장형 카메라를 통해 로봇은 바코드를 읽고 용지함이나 컨베이어에서 부품을 찾아 선택하고 검사 할 수 있다. 로봇은 부품을 인식하고,​ 그들이 수행 해야 할 적절한 검사 순서를 자동적으로 호출한다.
 +
 +로봇을 훈련시키고 비전 시스템을 프로그래밍하는 사람들은,​ 이전의 비전 전문 지식을 필요로 하지 않는다고 Lawton은 덧붙였다. "​그것은 카메라에 필요한 투자비용과,​ 로봇을 프로그래밍 하는 전문가들을 고용 할 여유가 없는 회사의 고통을 절감 시켜준다."​
 +
 +**다음엔 무엇인가?​** ​
 +
 +IntervalZero의 Leitz는 로봇과 인간이 제조 현장에서 더 가깝게 일하기 시작함에 따라, 안전을 위해 사용되는 로봇 비전 시스템을 예측했다. "​작업자의 손이 컨베이어에 있는 물건을 방해하면 로봇이 이를 보고 즉시 기계를 멈출 것이다."​
 +
 +협업 로봇은 소프트웨어에 내장 된 인공 지능 덕분에 업무를 더 잘 수행하는 방법을 배우고 있다고 Lawton은 말한다. "​역사적으로 로봇은 평균적으로 프로그래밍하는데 약 300 시간이 걸리지만 실제로는 배우지 않는다."​라고 그는 말한다. "​로봇은 시각 센서는 거대한 용량을 지니고있다. 모든 센서 정보를 분석 엔진으로 가져올 수 있다면, 작업에 대한 통찰력을 얻을 수 있을 것이다. 또한 유사한 작업을 수행하는 다른 로봇과 클라우드에서 공유되는 통찰력을 기반으로 자체 성능을 향상시킬 수도 있다. "
 +
 +또한 Lawton은 이전에는 보지 못했던 일들을 작업하기 위해, 클라우드에 저장된 시각적 데이터를 가져와 인용할 수 있다고 설명했다. "AI, 클라우드와 비전 사이에서 로봇은 도구를 사용하고,​ 그것이 할 수 있는 것보다 더 나은 작업을 수행하는 방법을 발견 할 수 있다."​라고 Lawton은 말한다.
 +
 +Leitz는 또한 제조 업체가 클라우드에 저장된 시각 자료를 찾을 수 있도록 한다. 예를 들어, 특정 날짜에 발생한 문제를 추적하거나 로봇이 테스트했을 때 부품이 올바로 작동하는지를 확인할 수 있다.
 +
 +한 가지 확실한 사실은 비전 시스템의 전망이 더욱 밝아지고 있는 걸 알고 있으면서,​ 지속적으로 비전을 제시하는 것이다.
 +\\ 
 +\\ 
 +\\ 
 +출처 : Automation World - The Vision for Robotic Vision
 +
 +번역 및 편집 : K-SmartFactory
  
로봇_비전의_시각.txt · 마지막으로 수정됨: 2017/08/09 18:42 저자 wikiadmin
CC Attribution-Share Alike 3.0 Unported
Powered by PHP Driven by DokuWiki Recent changes RSS feed Valid CSS Valid XHTML 1.0 Valid HTML5