CBS 방송 (24.01.24 녹음) : 에듀테크와 챗GPT
CBS 방송 (24.01.24 녹음) : 에듀테크와 챗GPT
김환희 (인간무늬연마소 대표)
요즘 대학가와 각급 학교에서는 챗 GPT와 같은 인공지능 기술을 학생들이 활용하는 것을 허용할 것인가에 대한 교육자들의 고민이 계속되고 있습니다. SF 작가 테드 창은 AI 기술을 이용하는 것을 “고통 없는 창작”이라고 이야기했는데요. 실제로 최근 AI 생성 아티스트의 작품들, 즉 AI가 창작해낸 이미지와 결과물의 저작권과 창작성을 인정하는 것을 두고 많은 논란도 있습니다. 학생들의 경우에도 여러 번 검색하는 고통마저도 덜어주는 ‘노고 없는 과제’를 양산해내는 부작용이 있을 것 같습니다. 그런데 뇌과학과 인지심리학에서는 학습과정에서의 ‘적절한 방해와 장애물’이 있어야 우리에게 유의미한 학습이 이루어진다고 이야기합니다.
따라서 AI기술을 이용한 “고통 없는 창작”에 어떤 ‘고통’, 다른 말로 어떤 ‘도전’을 학습 과정에서 학생들에게 부가할 것인가가 AI의 교육적 이용에 핵심적인 부분이라 할 수 있습니다.
이와 관련해서 챗지피티가 가지고 있는 두 가지 단점을 주목할 필요가 있는데요. 첫째는 챗지피티가 그럴듯한 거짓말을 한다는 것입니다. 과학자들은 이런 현상을 hallucination, 환각이라고 부르고 있습니다. 저의 경우에는 챗지피티에게 칸트의 <순수이성비판>에 대해서 물었는데, 실제 칸트가 하지 않은 말을 인용하며, 가짜 출처까지 달아서 답변받은 경험이 있습니다. 즉, AI는 사용자에게 정확한 정보를 제공하거나 독창적인 창작물을 제공하지 않습니다. 오히려 테드 창의 표현대로 ‘기존에 존재하는 독창적 아이디어를 후지게 변형한 버전’을 제공한다고 할 수 있습니다. 빅데이터를 돌려 가장 그럴듯한 말을 잘 만들어 내다보니 전문가가 아니면 속기 쉬운 대목이 많습니다.
두 번째 부작용은 AI가 인종차별, 성차별적 발언을 할 수 있다는 것입니다. AI 챗봇 이루다가 장애인이나 동성애 혐오발언으로 잠정 서비스 중단을 한게 대표적 사례입니다. 최근에는 SNS상에서 한국 20대 남녀의 모습을 그린 생성아트가 큰 논란이 되었습니다.
<관련 기사에서 캡쳐/한국경제>
남성의 모습은 한파에 훈련하는 군인으로, 여성은 카페에서 커피를 마시며 수다를 떠는 모습으로 그린 것인데요. 그리고 이런 논란은 ‘AI가 항상 사실과 정답을 알려준다’고 거의 종교적으로 믿는 AI 메시아니즘과 연결되어 있습니다. AI를 신봉하는 이런 사람들은 AI의 많은 단점들이 기술개선으로 극복가능하다고 믿는데요. 저는 그렇지 않을 것이라고 생각합니다. 재미있게도 AI가 가지고 있는 이런 단점들은 모두 인간의 단점이기 때문입니다. 우리 인간은 편향과 상식부족, 오인과 오개념, 잘못된 신념으로 인해 잘못된 언행을 하며, 의도된 거짓말로 가짜뉴스와 가짜정보를 양산하기도 합니다. AI가 방대한 정보망을 통해, 인간이 만든 오염된 raw data를 사용하는 이상 아무리 기술적으로 재가공을 잘한다고 한들 오염된 결과물이 나올 수 밖에 없기 때문입니다.
따라서 디지털 리터러시 관점에서 오늘날 교육자에게는 두 가지 활용법이 가능합니다. AI 기술의 구현원리와 우리 일상과 사회 변화에 미치는 영향을 비판적으로 분석할 수 있는 능력을 학생들에게 길러주는 것입니다. 예를 들어 과제를 챗 지피티를 이용해서 수행하라고 한 후, 챗지피티의 결과물을 사실판단과 가치판단에서 비판하는 이중적 과제를 제시하는 것입니다. 둘째로 AI의 거짓말을 분별하는 것을 넘어서서 ‘AI 길들이기’를 시도하는 건데요. 즉 인종, 성, 지역, 장애인 차별 등의 올바르지 못한 언어를 사용하는 AI와의 대화를 통해 2차데이타를 교정하는 것입니다. AI는 인간과의 대화를 통해 계속 진화 중인데요, 가치판단의 영역에서 집단적으로 올바르고 공공적인 가치를 가르칠 수 있는 집단이 바로 교육계입니다. 웨일북, 크롬북, 구글 클래스룸 등 테크 기업들은 미래 빅데이터 시장을 쥐고 있는 교육계의 데이터 사용에 주목할 수 밖에 없는 데요. 교사들은 이런 민간 기업들의 공세에 공공성을 부여할 수 있도록 깨어있을 필요가 있습니다. 앞으로 출현할 AI시대의 방향추가 교사에게 달려있는 셈인데요. 교육청과 교육부의 정책은 에듀테크라는 이름 하에 기업들의 영리성에 휘둘리는 모습을 보이는 것 같아 우려됩니다. 자칫 그럴듯해 보이는 신기술을 학교에 비싼 가격으로 도입해 제대로 사용하지 않고 방치되는 사례, 예를 들어 과거의 전자칠판과 같은 전례를 반복하지 않아야 합니다. 이를 위해서는, 웨일북 등 장비를 학교에 보급한다고 막대한 예산과 연수를 허겁지겁 쏟아내기 이전에 ‘디지털 리터러시’에 대한 철학적 개념을 정립하고 미래교육에 대한 교육적 방향부터 제대로 정립해야 할 것입니다.
CBS Broadcast (Recorded 24.01.24): ChatGPT with Edtech - <Taming AI for Communists>
Hwanhee Kim (CEO of Inmuyeon)
The question of whether to allow students to use artificial intelligence technologies such as Chat GPT continues to be a concern for educators at universities and schools of all levels. Science fiction writer Ted Chang called using AI technology "painless creation." In fact, there has been a lot of controversy recently about recognizing the copyright and creativity of AI-generated artists' works, that is, images and results created by AI. For students, it seems to have the side effect of producing "effortless assignments" that save them the pain of searching multiple times. However, neuroscience and cognitive psychology tell us that "appropriate interruptions and obstacles" in the learning process are necessary for meaningful learning.
Therefore, how to add "pain" or "challenge" to students in the learning process to "create without pain" using AI technology is a key part of the educational use of AI.
In this regard, it is worth noting two disadvantages of ChatGP: The first is that ChatGPT can tell plausible lies, a phenomenon scientists call hallucination. In my own case, I once asked Chatbot about Kant's Critique of Pure Reason, and it responded by quoting something Kant didn't say, complete with a fake source. In other words, AI doesn't provide you with accurate information or original creations; rather, it provides you with, as Ted Chang puts it, "a watered-down version of an original idea that already exists". It spins big data to come up with the most plausible thing to say, and unless you're an expert, you're likely to be fooled.
The second side effect is that AI can make racist and sexist remarks. A typical example is the temporary suspension of the AI chatbot Iruda for making disability and homophobic remarks. More recently, AI generated art depicting a man and a woman in their 20s in South Korea became a major controversy on social media. The man was depicted as a soldier training in a cold wave, and the woman was depicted as a woman drinking coffee and chatting in a cafe. This controversy is connected to AI messianism, which is an almost religious belief that AI will always give you the facts and correct answers. These people believe that many of AI's shortcomings can be overcome by technological improvements, but I don't think that's the case. The funny thing is that these shortcomings are all human shortcomings. We humans are biased, lack common sense, misunderstandings, misconceptions, and misguided beliefs that lead us to misbehave and create fake news and disinformation with intentional lies. This is because AI has access to a vast network of information, and as long as it's using raw, human-created, tainted data, it's bound to produce tainted results, no matter how well it's technically reprocessed.
So from a digital literacy perspective, there are two possible uses for educators today. One is to teach students to critically analyze how AI technology works and how it impacts our daily lives and social change, for example, by asking them to perform a task using Chat GPT and then giving them a dual task of critiquing the output of Chat GPT in terms of factual and value judgments. The second is to go beyond discerning lies in AI and try to "tame AI," which means having conversations with AI that use poor language, such as racial, gender, regional, and ableism, to correct secondary data. AI continues to evolve through conversations with humans, and in the realm of value judgments, one group that can collectively teach correct and public values is the education community. Tech companies which operating like Whalebook, Chromebook, Google Classroom, and others have their eyes on education's use of data as the future big data market, and teachers need to stay awake to give public value to these private companies' efforts. Teachers are the ones who will steer the ship in the coming AI era, and I am worried that the policies of the Ministry of Education seem to be swayed by corporate profitability in the name of Edu-tech. We need to avoid repeating the precedents of the past, such as the electronic blackboards, where new technologies were introduced to schools at a high price and left unused. To do this, we need to settle on a philosophical concept of 'digital literacy' and a pedagogical direction for the future of education before throwing money and training at schools to supply equipment such as Whalebooks.
Writed by Hwanhee Kim
&
Translated by AI bot DeepL
&
Edited by Hwanhee Kim
(https://www.deepl.com/app/?utm_source=ios&utm_medium=app&utm_campaign=share-translation)