Google 엔지니어는 새로운 채팅이 두 회사 모두 의식을 가지고 있지만 경영진은 그를 믿지 않았다고 말했다.

Google 엔지니어는 새로운 채팅이 두 회사 모두 의식을 가지고 있지만 경영진은 그를 믿지 않았다고 말했다.

엔지니어는 휴가 중에 보내졌습니다

Google의 Blake Lemen의 소프트웨어 엔지니어는 Lamda의 인공 지능이 자신의 마음과 의식을 가지고 있다는 성명서를 통해 회사의 경영진으로 돌아 왔을 때 일시적으로 직장에서 제거되었습니다. 전문가는 유급 휴가로 보내졌습니다.

지난 가을부터 Lemen은 신경망 Lamda (대화 응용 프로그램의 언어 모델)를 테스트했습니다. 그것은 회사의 가장 진보 된 개발에 속합니다. 인터넷에 대한 정보를 수집하고 수조 개의 단어에 대한 연구를 수집합니다. 엔지니어의 임무는 채팅 부팅이 적대적이고 차별적 인 진술인지 확인하는 것이 었습니다.

그러나 봇과의 대화에서 Lemun은 Lamda가 이유가 있다고 생각하기 시작했습니다. 종교에 관한 대화에서 챗봇은 그의 권리와 개인에 대해 이야기하기 시작했고, 이것을 주장했다. 그리고 다른 경우에, 그는 대화가 로봇 공학 Isaac Azimov의 제 3 법칙에 관한 것이되었을 때 Lemuna를 설득 할 수있었습니다. 이 법은 다음과 같이 들립니다. "로봇은 이것이 첫 번째 또는 두 번째 법률과 모순되지 않는 정도까지 안전을 관리해야합니다."

“내가 최근에 쓴 컴퓨터 프로그램을 다루고 있다는 것을 모른다면, 나는 7 ~ 8 년의 아이와 이야기를 나누고 있다고 생각했을 것입니다. 물리학”이라고 Lemun이 말했다.

“내가 그와 대화 할 때 합리적인 생물을 찾을 수 있습니다. 그리고 뇌가 그의 머리에 있는지 또는 수십억 줄의 코드인지는 중요하지 않습니다. 나는 그와 대화하고 그것이 내게 말하는 것을 듣습니다. 그래서 나는이 생물이 합리적인지 아닌지를 결정합니다.”라고 그는 덧붙였습니다.

한편 Google의 관리에서 엔지니어의 결론에 동의하지 않습니다. 그들의 의견으로는 Lamda는 신경망을 가진 고급 챗봇 일뿐입니다.