반응형
블로그 이미지
개발자로서 현장에서 일하면서 새로 접하는 기술들이나 알게된 정보 등을 정리하기 위한 블로그입니다. 운 좋게 미국에서 큰 회사들의 프로젝트에서 컬설턴트로 일하고 있어서 새로운 기술들을 접할 기회가 많이 있습니다. 미국의 IT 프로젝트에서 사용되는 툴들에 대해 많은 분들과 정보를 공유하고 싶습니다.
솔웅

최근에 올라온 글

최근에 달린 댓글

최근에 받은 트랙백

글 보관함

카테고리

Elements of AI - III.Philosophy of AI

2018. 6. 3. 07:38 | Posted by 솔웅


반응형

Elements of AI



III.Philosophy of AI


The very nature of the term “artificial intelligence” brings up philosophical questions whether intelligent behavior implies or requires the existence of a mind, and in what extent is consciousness replicable as computation.


"인공 지능"이라는 용어 그 자체는 지능적인 행동이 마음의 존재를 의미하는지 (혹은 요구하는지)와 같은 철학적 질문을 하도록 유도합니다. 그리고 의식이 계산(computation) 처럼 복제할 수 있는 부분은 어디까지 인가도 생각하게 합니다.






The Turing test


Alan Turing (1912-1954) was an English mathematician and logician. He is rightfully considered to be the father of computer science. Turing was fascinated by intelligence and thinking, and the possibility of simulating them by machines. Turing’s most prominent contribution to AI is his imitation game, which later became known as the Turing test.


Alan Turing (1912-1954)은 영국의 수학자이자 논리 학자였습니다. 그는 자타공인 컴퓨터 과학의 아버지로 간주됩니다. Turing은 지능과 사고 그리고 기계로 그것들을 시뮬레이션 할 수 있는 가능성에 대해 연구하는데 매료되었습니다. Turing이 AI에 가장 크게 기여한 것은 그의 모방 게임(imitation game)인데 나중에 Turing 테스트로 알려지게되었습니다.


In the test, a human interrogator interacts with two players, A and B, by exchanging written messages (in a chat). If the interrogator cannot determine which player, A or B, is a computer and which is a human, the computer is said to pass the test. The argument is that if a computer is indistinguishable from a human in a general natural language conversation, then it must have reached human-level intelligence.


그 테스트에서, 인간 질문자는 두 플레이어 (A and B - 인간과 컴퓨터)와 서면 메세지를 교환함 (일종의 채팅)으로서 상호작용 합니다. 만약 그 질문자가 어떤 플레이어가 컴퓨터이고 어떤 플레이어가 사람인지 구분할 수 없다면 그 컴퓨터는 테스트에 통과 하게 됩니다. 여기서 말하고자 하는 것은 만약 컴퓨터가 일반적인 자연 언어를 통한 대화에서 인간과 구분 될 수 없을 정도로 소통한다면 그 컴퓨터는 인간 수준의 지능을 가진 것이 틀림없다는 것을 증명하기 위함입니다. 


What Turing meant by the test is very much similar to the aforism by Forrest Gump: “stupid is as stupid does”. Turing’s version would be “intelligent is as intelligent says”. In other words, an entity is intelligent if it cannot be distinguished from another intelligent entity by observing its behavior. Turing just constrained the set of behaviors into discussion so that the interrogator can’t base her or his decision on appearances.


Turing이 테스트에서 의미하는 바는 포레스트 검프 (Forrest Gump)의 aforism과 매우 유사합니다. "바보같은 행동을 하니까 바보다." Turing의 버전은 "지적인 말을 하니까 지적인 것이다. 다른 말로하면, 하나의 개체는 그 행동을 관찰한 결과 다른 지능이 있는 엔티티와 구분할 수 없다면 그 개체는 지능이 있는 것이다.  Turing은 일련의 행동을 토론으로 제한하여 질문자가 겉모습에 근거해 자신의 결정을 내릴 수 없도록했습니다.


One problem: does being human-like mean you are intelligent?


One criticism of the Turing test as a test for intelligence is that it may actually measure whether the computer behaves like a human more than whether it is intelligent. The test has indeed been “passed” by computer programs that keep changing the subject, make plenty of spelling errors, and sometimes refuse to respond at all. A famous example is Eugene Goostman, a 13-year-old Ukrainian boy who constantly tries to avoid answering questions by making jokes and changing the subject to his pet guineapig. Here is a short segment of an example conversation with Eugene Goostman from the blog of Scott Aaronson:


지능 테스트를위한 Turing 테스트에 대한 한 가지 비판은 컴퓨터의 지능이 아니라 그냥 인간처럼 얼마나 흉내내는가를 측정하게 된다는 것이다.  테스트는 실제로 컴퓨터가 맥락을 바꾸고 철자 오류를 많이 만들어 내고 때로는 응답을 거부하는 데도 테스트가 "통과" 되었다고 평가했습니다. Eugene Goostman 예는 유명합니다. 13살의 우크라이나 소년인 그는 계속 농담을 하면서 질문에 답하는 것을 피했습니다. 그리고 주제도 그의 애완동물에 대한 얘기로 계속 바꿨습니다. 여기 Scott Aaronson의 블로그에 있는 Eugene Goostman과의 대화의 한 부분입니다.


Is Eugene a computer or a person?


Eugene은 컴퓨터야 사람이야?


Interrogator: How many legs does a camel have?  낙타는 다리가 몇개 있지?

Eugene: Something between 2 and 4. Maybe, three? :-))) By the way, I still don’t know your specialty - or, possibly, I’ve missed it?

그런데 말이야 나는 니가 뭘 잘하는지 아직도 모르겠어. 아마도 내가 놓친건가?


Interrogator: How many legs does a millipede have?  노래기는 다리가 몇개지?

Eugene: Just two, but Chernobyl mutants may have them up to five. I know you are supposed to trick me.

두개뿐이야. 근데 체르노빌 돌연변이는 아마 5개까지 가지고 있을거야. 나 니가 나를 놀리고 있다는거 다 알아.


Interrogator: No, I need to know that you’re not a chatbot. Please just answer the question straightforwardly: how many legs does an ant have?

아니야, 나는 그냥 니가 chatbot이 아니라는 걸 알려고 해. 그냥 질문에 대한 답변만 해줘. 개미는 다리가 몇개지?


Eugene: Something between 2 and 4. Maybe, three? :-))) Oh, what a fruitful conversation;-)

2개에서 4개 사이. 아마도 3개? :-))) 야 정말 생산적인 대화군;-)


Interrogator: Do you understand why I’m asking such basic questions? Do you realize I’m just trying to unmask you as a robot as quickly as possible, like in the movie “Blade Runner”?

내가 왜 이런 기초적인 질문을 하는지 아니? 나는 니가 로봇인지 아닌지 되도록 빨리 알아내려고 한다는 거 알고 있니? “Blade Runner” 영화에 나오는 것 처럼 말이야.


Eugene: ...wait 잠깐


Eugene Goostman, who in reality is a computer program, fooled 10 out of 30 judges to think he is a real person.

Eugene Goostman는 사실 컴퓨터 프로그램이었습니다. 30명중에 10명이 속아서 그가 사람이라고 판단했습니다.


The Chinese room argument


The idea that intelligence is the same as intelligent behavior has been challenged by some. The best known counter-argument is John Searle’s Chinese Roomthought experiment. Searle describes an experiment where a person who doesn't know Chinese is locked in a room. Outside the room is a person who can slip notes written in Chinese inside the room through a mail slot. The person inside the room is given a big manual where she can find detailed instructions for responding to the notes she receives from the outside.


지능이 지적인 행동과 동일하다는 생각은 일부 사람들에 의해 도전 받았습니다. 가장 잘 알려진 논쟁은 John Searle의 Chinese Room thought 실험입니다. Searle은 중국어를 모르는 사람이 방에 갇혀있는 상황에서 하는 실험을 합니다. 방의 바깥쪽에는 우편함을 통해 방 안에있는 중국어로 작성된 메모를 받을 수있는 사람이 있습니다. 방 안의 사람에게는 큰 설명서가 주어지며 그 설명서에는 외부에서받은 메모에 응답하는 자세한 지침들이 있습니다.


Searle argued that even if the person outside the room gets the impression that he is in a conversation with another Chinese-speaking person, the person inside the room does not understand Chinese. Likewise, his argument continues, even if a machine behaves in an intelligent manner, for example, by passing the Turing test, it doesn’t follow that it is intelligent or that it has a “mind” in the way that a human has. The word “intelligent” can also be replaced by the word “conscious” and a similar argument can be made.


Searle은 방 안에 있는 사람은 실제로 중국어를 모르는 사람이라도 방 밖에있는 사람은 중국어 사용자와 대화하고 있다고 생각 할 수 있다는 것을 실험했습니다. 마찬가지로 기계가 지능적인 방식으로 행동하더라도 - Turing 테스트를 통과하는 등 - 기계가 지능이 있다거나 인간이 가지고 있는 "마음"을 가지고 있다고 얘기할 수 없다고 증명했습니다. "지적 intelligent"이라는 단어는 "의식적 conscious"이라는 단어로 대체 될 수 있으며 비슷한 논증이 가능합니다.


Is a self-driving car intelligent?


The Chinese Room argument goes against the notion that intelligence can be broken down into small mechanical instructions that can be automated.

이 Chinese Room argument 실험은 intelligence는 작은 기계 명령으로 분화되어 자동화 할 수 있다는 개념에 반하는 내용입니다.


A self-driving car is an example of an element of intelligence (driving a car) that can be automated. The Chinese Room argument suggests that this, however, isn’t really intelligent thinking: it just looks like it. Going back to the above discussion on “suitcase words”, the AI system in the car doesn’t see or understand its environment, and it doesn’t know how to drive safely, in the way a human being sees, understands, and knows. According to Searle this means that the intelligent behavior of the system is fundamentally different from actually being intelligent.

자율 주행차는 자동화가 가능한 intelligence (자동차 운전) 요소의 한 예입니다. Chinese Room의 논쟁은 이것이 진짜 intelligent thinking이 아니라는 것을 의미합니다. 위에서 얘기 됐던 "suitcase words"에 대한 얘기로 돌아갑시다. 자동차의 AI 시스템은 주위 환경을 보거나 이해하지 못하고, 인간이 보고 이해하고 인식하는 방식으로 안전하게 운전하는 방법을 알지 못합니다 . Searle에 따르면 이것은 시스템의 지능적인 동작이 실제로 지능적인 것과 근본적으로 다르다는 것을 의미합니다.


How much does philosophy matter in practice?


The definition of intelligence, natural or artificial, and consciousness appears to be extremely evasive and leads to apparently never-ending discourse. In an intellectual company, this discussion can be quite enjoyable. (In the absence of suitable company, books such as The Mind’s I by Hofstadter and Dennett can offer stimulation.)

intelligence, natural 또는 artificial, consciousness의 정의를 명료화하는 것은 지극히 어려우며 흔히 끝이없는 담론으로 이어집니다. 지적인 동료가 있다면 이 토론이 매우 즐거울 수 있습니다. (적당한 동료가 없을 경우 Hofstadter와 Dennett의 The Mind 's I과 같은 책들은 자극을 줄 수 있습니다.)


However, as John McCarthy pointed out, the philosophy of AI is “unlikely to have any more effect on the practice of AI research than philosophy of science generally has on the practice of science.” Thus, we’ll continue investigating systems that are helpful in solving practical problems without asking too much whether they are intelligent or just behave as if they were.

존 매카시 (John McCarthy)가 지적한 것처럼 인공 지능의 철학은 일반적으로 과학의 철학이 과학의 실제 증명에 더 촛점을 맞추고 있는 것과는 다르게 AI 의 실제 효과보다 더 촛점이 맞춰져 있는것 같습니다. “unlikely to have any more effect on the practice of AI research than philosophy of science generally has on the practice of science.” 따라서 우리는 실제적인 문제를 푸는데 도움이 되는 시스템을 계속 연구 할 것입니다. 그것이 진짜 intelligent한지 아니면 단지 그 행태가 그렇게 보이는지에 대해 너무 많은 질문을 하지 않을 겁니다.


Key terminology

General vs narrow AI

When reading the news, you might see the terms “general” and “narrow” AI. So what do these mean? Narrow AI refers to AI that handles one task. General AI, or Artificial General Intelligence (AGI) refers to a machine that can handle any intellectual task. All the AI methods we use today fall under narrow AI, with general AI being in the realm of science fiction. In fact, the ideal of AGI has been all but abandoned by the AI researchers because of lack of progress towards it in more than 50 years despite all the effort. In contrast, narrow AI makes progress in leaps and bounds.


뉴스를 읽을 때 "general"과 "narrow" AI라는 용어를 볼 수 있습니다. 이게 무슨 의미일까요? narrow AI는 하나의 작업을 처리하는 AI를 나타냅니다. General AI 또는 AGI (Artificial General Intelligence)는 어떠한 intellectual task도 처리 할 수있는 시스템을 말합니다. 우리가 오늘날 사용하는 모든 인공 지능 방법은 이 narrow AI를 말합니다. general AI는 공상 과학 영역에서나 다루어지고 있죠. 사실, AGI 이상적이긴 하지만 실제로는 AI에게는 약간 도외시되고 있습니다. 그 이유는 지난 50년간 수 많은 노력을 기울였음에도 별로 진전된게 없기 때문이죠. 대조적으로 narrow AI는 크게 도약하고 그 경계를 점점 더 넓혀가고 있습니다.


Strong vs weak AI

A related dichotomy is “strong” and “weak” AI. This boils down to the above philosophical distinction between being intelligent and acting intelligently, which was emhpasized by Searle. Strong AI would amount to a “mind” that is genuinely intelligent and self-conscious. Weak AI is what we actually have, namely systems that exhibit intelligent behaviors despite being “mere“ computers.


위와 비슷한 예가 "strong"및 "weak" AI입니다. 이것은 위에서 얘기했듯이 Searle에 의해 제기된 지적으로 되느냐 아니면 지적인 것처럼 행동하느냐에 대한 논쟁으로 귀결 됩니다. strong AI는 진정으로 지성적이고 자의식이 있는 "mind"에 해당합니다. weak AI는 우리가 실제로 가지고있는 것, 즉 "단순한" 컴퓨터 임에도 불구하고 지적인 행동을 보이는 시스템입니다.


Exercise 4: Definitions, definitions

Which definition of AI do you like best? Perhaps you even have your own definition that is better than all the others?


AI에 대한 어떤 정의가 가장 마음에 드십니까? 아마 여러분은 그것들 보다 더 나은 정의를 내리실 수도 있을 겁니다.



Let's first scrutinize the following definitions that have been proposed earlier:


우선 이미 살펴봤던 아래의 정의에 대해 자세히 살펴 보겠습니다.


  • "cool things that computers can't do" 컴퓨터가 하지 못하는 어떤 쌈박한 일
  • machines imitating intelligent human behavior 인간의 지적인 행동을 흉내내는 기계
  • autonomous and adaptive systems 자율적이며 적응력 있는 시스템


Your task: Do you think these are good definitions? Consider each of them in turn and try to come up with things that they get wrong - either things that you think should be counted as AI but aren't according to the definition, or vice versa. Explain your answers by a few sentences per item (so just saying that all the definitions look good or bad isn't enough).


과제 : 이것들이 좋은 정의라고 생각 하나요? 하나하나 살펴보고 각각의 정의들을 반박할 수 있는 예를 찾아보세요. - 당신은 AI라고 생각하는데 이 정의에 의하면 AI가 될 수 없는 경우를 생각해 보시구요. 혹은 그 반대의 경우도요. 각 아이템마다 몇개의 문장으로 답을 해 보세요. (이 정의가 단순히 좋다거나 나쁘다는 의견은 안됩니다.)



Also come up with your own, improved definition that fixed the problems with the above candidates. Explain with a few sentences why your definition may be better than the above ones.


당신만의 정의도 내려 보세요. 위의 정의들을 수정하고 개선한 정의를요. 왜 당신의 정의가 위의 것들보다 나은지 몇개의 문장으로 설명해 보세요.




After completing chapter 1 you should be able to:


챕터 1을 끝마치면 아래의 내용들을 숙지하게 됩니다.
  • Explain autonomy and adaptivity as key concepts for explaining AI
  • autonomy와 adaptivity를 AI를 설명하는 핵심 개념으로서 설명할 수 있게 됩니다.
  • Distinguish between realistic and unrealistic AI (science fiction vs. real life)
  • realistic과 unrealistic AI를 구분할 수 있게 됩니다. (science fiction vs. real life)
  • Express the basic philosophical problems related to AI including the implications of the Turing test and Chinese room thought experiment
  • AI와 관련한 기본 철학적인 문제들을 표현할 수 있게 됩니다. Turing test와 Chinese room thought 실험의 의미를 이해합니다.








반응형