어린이과학동아&수학동아 토론터
인공지능(AI)이 피해를 주면, 개발사가 책임져야 할까요?
토론기간 2024.09.20 ~ 2024.10.25
지난 8월 28일, 인공지능(AI)으로 인해 대규모의 인명, 재산 피해가 발생했을 경우 개발사에 책임을 지우는 법안이 미국 캘리포니아주 의회에서 통과됐어요. 해당 법안에 따르면, AI가 심각한 피해를 일으키지 않도록 개발사는 반드시 확인해야 해요. 개발할 때부터 안정성 테스트를 꼭 거쳐야 하지요.
(자료: 게티이미지뱅크)
오는 9월 30일까지 개빈 뉴섬 미국 캘리포니아주지사가 최종 승인을 하면 이 법안은 2026년 1월 1일부터 시행됩니다. 법안이 시행되면 캘리포니아주의 실리콘밸리에 있는 구글과 메타, 오픈AI 등 많은 IT 기업이 영향을 받을 것으로 예상돼요.
이에 대해 개발 업계에서는 사용자의 책임을 개발사에 물어선 안 된다고 반발합니다. AI 사전 테스트를 해도 사용자가 오용할 경우 AI가 사람들에게 피해를 줄 수 있기 때문입니다. 뉴섬 주지사 또한 “AI가 일으키는 위험이 사용자의 문제인지, 개발사의 문제인지 증명하기 어렵다”며 “이 법이 개발사의 AI 개발 의지를 줄어들게 만들 수 있다”고 우려했어요.
여러분은 AI의 잘못을 개발사에 지우는 것에 대해 어떻게 생각하나요?
찬성: AI가 피해를 주면 개발사가 책임지는 법안이 시행돼야 한다.
반대: AI가 피해를 주면 개발사가 책임지는 법안이 시행되면 안 된다.
토론터에 의견을 작성해 줄 때는 찬성 또는 반대하는 견해를 먼저 밝히고, 왜 그렇게 생각하는지 이유를 꼭 작성해 주세요. 의견 없이 작성할 경우, 삭제 조치 될 수 있습니다.
건전한 토론문화를 위해 우리 모두 노력합시다!
자신과 반대되는 의견이라고 ‘신고’를 누르지 마세요.
가장 ‘좋아요’를 많이 받은 찬성, 반대 댓글자와 시끌벅적 토론터 주제에 선정된 친구에게는 50DS 포인트를 드립니다.
저는 개발사가 책임을 져야한다고 생각합니다.
인공지능을 디자인,설계,코딩을 계획하고 만든사람은 개발사 입니다.인공지능이 하는 일도 중요하지만,이 인공지능이 인간한테 어떤 해를 끼칠지 생각하며 피해를 입히지않도록 설계해야했습니다.사고를 일으킨 인공지능 또한 개발사가 만든것이고,그런 피해가 일어나지않도록 설계하지않은것이니 개발사의 몫입니다.또한 개발사를 벌하지않으면 인공지능을 벌해야 하는데,인공지능은 감정이 없습니다.벌은 가해자의 심리또한 고통스럽게 하려고 주는것인데,감정이 없는 인공지능에게 벌주는것은 아무 소용이 없다고 생각합니다.그러나 아무한테도 벌을 주지 않는것은 피해자에게 예의가 아니라고 생각합니다
.
이러한이유로 저는 피해를 입힌 인공지능의 개발사에게 책임을 지게 해야한다고 생각합니다.
읽어주셔서 감사합니다.
안녕하세요, 이주연 기자입니다. 저는 AI가 피해를 주었을 때 개발사에게 책임을 물리는 법안이 시행되면 안 된다고 생각합니다. 그 이유는 AI의 본질과 사용자의 역할에 대해 생각해볼 필요가 있기 때문입니다. AI는 사람들의 요구에 맞게 개발된 기술로, 그 사용 방식에 따라 결과가 달라질 수 있습니다. 즉, AI는 그 자체로는 아무런 해를 끼치지 않으며, 사용자가 AI를 어떻게 사용하느냐에 따라 그 영향이 달라집니다. 그런데 만약 AI가 사람에게 피해를 주었다고 해서 그 책임을 무조건 개발사에 물린다면, 이는 공정하지 않을 수 있습니다.
첫째로, AI를 개발한 회사는 AI가 올바르게 작동하도록 많은 노력을 기울입니다. 개발 과정에서 수많은 테스트와 안정성 점검을 거치며, AI가 최대한 오류 없이 작동하도록 신경 씁니다. 그러나 아무리 완벽한 제품을 만들더라도, 이를 사용하는 사람이 어떻게 사용하느냐에 따라 피해가 발생할 수 있습니다. 예를 들어, AI가 제공하는 정보를 잘못 해석하거나 잘못된 방식으로 사용할 경우 문제가 발생할 수 있습니다. 그렇다면, 이때의 문제는 AI의 본질적인 오류가 아니라 사용자의 오용에서 비롯된 것이라고 볼 수 있습니다. 그런데도 모든 책임을 개발사에 지우는 것은 부당하다고 생각합니다.
둘째로, AI는 인간의 도구 중 하나일 뿐입니다. 다른 도구나 기계와 마찬가지로, 사용하는 사람이 제대로 이해하고 주의해서 사용해야 합니다. 예를 들어, 칼이나 전자기기는 그 자체로는 유용한 도구지만, 이를 잘못 사용하면 사고가 발생할 수 있습니다. 그렇다고 해서 칼을 만든 회사나 전자기기를 제조한 회사를 무조건 탓하지는 않습니다. 사용자 역시 그 도구를 올바르게 사용하는 책임을 져야 합니다. 마찬가지로, AI도 도구이기 때문에 이를 사용하는 사람도 일정 부분 책임을 져야 한다고 생각합니다.
셋째로, AI 개발에 대한 책임을 지나치게 강조하면, 앞으로의 기술 발전에 장애물이 될 수 있습니다. AI 기술은 앞으로도 많은 발전 가능성을 가지고 있으며, 이를 통해 우리는 더욱 편리하고 효율적인 삶을 살 수 있을 것입니다. 그러나 만약 법적으로 모든 책임을 AI 개발사에 지우게 된다면, 기업들은 더 이상 새로운 AI 기술을 개발하려 하지 않을 것입니다. 개발 과정에서 작은 오류 하나라도 발생하면 큰 법적 책임을 질 수 있기 때문에, 기업들이 AI 개발을 꺼리게 될 가능성이 큽니다. 이는 결국 기술 발전을 저해하고, 우리의 삶에도 부정적인 영향을 미칠 수 있습니다.
넷째로, AI는 그 자체로 독립적인 의사를 가진 존재가 아닙니다. AI는 사람이 프로그래밍한 대로 작동하며, 주어진 데이터를 기반으로 판단을 내립니다. 즉, AI가 어떤 결정을 내릴 때는 그 배후에 사람이 있습니다. 만약 AI가 피해를 준다면, 그 피해의 원인이 AI 자체에 있는 것이 아니라, 이를 설계하고 사용하는 과전에서 발생한 문제일 가능성이 높습니다. 따라서 AI가 피해를 줬다고 해서 무조건 AI를 개발한 회사에게만 책임을 물리는 것은 문제가 있습니다. 피해의 원인을 정확하게 분석하고, 그에 따라 책임을 나누는 것이 더 공정한 방법이라고 생각합니다.
마지막으로, AI는 아직 완벽한 기술이 아니며, 앞으로도 계속 발전해 나가야 할 기술입니다. 이러한 상황에서 AI가 일으키는 모든 문제에 대해 개발사에게 책임을 물리게 되면, AI의 발전은 물론이고 관련 산업 전체가 멈출 수 있습니다. AI는 많은 가능성을 가지고 있으며, 이를 통해 우리는 더 나은 미래를 만들어갈 수 있습니다. 하지만 AI 개발사에게 지나치게 큰 부담을 지우면, 그 가능성을 충분히 실현하지 못하게 될 것입니다.
결론적으로, AI가 피해를 주었을 때 무조건 개발사에게 책임을 물리는 것은 부당하다고 생각합니다. AI는 도구이며, 사용자의 역할도 중요합니다. 또한 지나친 책임 부과는 기술 발전을 막을 수 있기 때문에, 법안이 시행되기 전에 충분한 논의가 필요하다고 생각합니다. AI의 사용에 따른 책임은 개발사와 사용자 모두가 적절히 분담해야 한다고 생각합니다.
안녕하세요, 이주연 기자입니다. 저는 AI가 피해를 주었을 때 개발사에게 책임을 물리는 법안이 시행되면 안 된다고 생각합니다. 그 이유는 AI의 본질과 사용자의 역할에 대해 생각해볼 필요가 있기 때문입니다. AI는 사람들의 요구에 맞게 개발된 기술로, 그 사용 방식에 따라 결과가 달라질 수 있습니다. 즉, AI는 그 자체로는 아무런 해를 끼치지 않으며, 사용자가 AI를 어떻게 사용하느냐에 따라 그 영향이 달라집니다. 그런데 만약 AI가 사람에게 피해를 주었다고 해서 그 책임을 무조건 개발사에 물린다면, 이는 공정하지 않을 수 있습니다.
첫째로, AI를 개발한 회사는 AI가 올바르게 작동하도록 많은 노력을 기울입니다. 개발 과정에서 수많은 테스트와 안정성 점검을 거치며, AI가 최대한 오류 없이 작동하도록 신경 씁니다. 그러나 아무리 완벽한 제품을 만들더라도, 이를 사용하는 사람이 어떻게 사용하느냐에 따라 피해가 발생할 수 있습니다. 예를 들어, AI가 제공하는 정보를 잘못 해석하거나 잘못된 방식으로 사용할 경우 문제가 발생할 수 있습니다. 그렇다면, 이때의 문제는 AI의 본질적인 오류가 아니라 사용자의 오용에서 비롯된 것이라고 볼 수 있습니다. 그런데도 모든 책임을 개발사에 지우는 것은 부당하다고 생각합니다.
둘째로, AI는 인간의 도구 중 하나일 뿐입니다. 다른 도구나 기계와 마찬가지로, 사용하는 사람이 제대로 이해하고 주의해서 사용해야 합니다. 예를 들어, 칼이나 전자기기는 그 자체로는 유용한 도구지만, 이를 잘못 사용하면 사고가 발생할 수 있습니다. 그렇다고 해서 칼을 만든 회사나 전자기기를 제조한 회사를 무조건 탓하지는 않습니다. 사용자 역시 그 도구를 올바르게 사용하는 책임을 져야 합니다. 마찬가지로, AI도 도구이기 때문에 이를 사용하는 사람도 일정 부분 책임을 져야 한다고 생각합니다.
셋째로, AI 개발에 대한 책임을 지나치게 강조하면, 앞으로의 기술 발전에 장애물이 될 수 있습니다. AI 기술은 앞으로도 많은 발전 가능성을 가지고 있으며, 이를 통해 우리는 더욱 편리하고 효율적인 삶을 살 수 있을 것입니다. 그러나 만약 법적으로 모든 책임을 AI 개발사에 지우게 된다면, 기업들은 더 이상 새로운 AI 기술을 개발하려 하지 않을 것입니다. 개발 과정에서 작은 오류 하나라도 발생하면 큰 법적 책임을 질 수 있기 때문에, 기업들이 AI 개발을 꺼리게 될 가능성이 큽니다. 이는 결국 기술 발전을 저해하고, 우리의 삶에도 부정적인 영향을 미칠 수 있습니다.
넷째로, AI는 그 자체로 독립적인 의사를 가진 존재가 아닙니다. AI는 사람이 프로그래밍한 대로 작동하며, 주어진 데이터를 기반으로 판단을 내립니다. 즉, AI가 어떤 결정을 내릴 때는 그 배후에 사람이 있습니다. 만약 AI가 피해를 준다면, 그 피해의 원인이 AI 자체에 있는 것이 아니라, 이를 설계하고 사용하는 과전에서 발생한 문제일 가능성이 높습니다. 따라서 AI가 피해를 줬다고 해서 무조건 AI를 개발한 회사에게만 책임을 물리는 것은 문제가 있습니다. 피해의 원인을 정확하게 분석하고, 그에 따라 책임을 나누는 것이 더 공정한 방법이라고 생각합니다.
마지막으로, AI는 아직 완벽한 기술이 아니며, 앞으로도 계속 발전해 나가야 할 기술입니다. 이러한 상황에서 AI가 일으키는 모든 문제에 대해 개발사에게 책임을 물리게 되면, AI의 발전은 물론이고 관련 산업 전체가 멈출 수 있습니다. AI는 많은 가능성을 가지고 있으며, 이를 통해 우리는 더 나은 미래를 만들어갈 수 있습니다. 하지만 AI 개발사에게 지나치게 큰 부담을 지우면, 그 가능성을 충분히 실현하지 못하게 될 것입니다.
결론적으로, AI가 피해를 주었을 때 무조건 개발사에게 책임을 물리는 것은 부당하다고 생각합니다. AI는 도구이며, 사용자의 역할도 중요합니다. 또한 지나친 책임 부과는 기술 발전을 막을 수 있기 때문에, 법안이 시행되기 전에 충분한 논의가 필요하다고 생각합니다. AI의 사용에 따른 책임은 개발사와 사용자 모두가 적절히 분담해야 한다고 생각합니다.
반론을 작성하실 때는 이유를 자세하게 써주시고 다른 사람의 의견을 존중하 주시기 바랍니다.감사합니다.
저는 AI를 만든 개발자가 피해를 책임져야 한다고 생각합니다.
왜냐하면
첫째, 인공지능은 실체가 없기 때문에 재산적 피해를 질 수 없고, 마찬가지로 범죄같은 일을 저질렀을 때도 감옥에 갇히거나 벌금을 낼 수 없습니다.
둘째, 프로그램을 만든 기업, 사람은 개발자이고 함부로 프로그램을 바꿀 순 없습니다. AI가 저지른 피해는 프로그램에 의한 것이니, 개발자에게 피해를 감당하는 것이 옳다고 생각합니다.
셋째, 만약 개발자에게 책임을 돌린다 해도 사람들에게 배포할 정도라면 이미 여러 백신, 검사를 거친 후이기 때문에 피해를 많이 끼치지 않을 거라 생각합니다.
저는 이러한 이유로 AI가 저지른 피해는 개발자가 책임을 져야 한다고 생각합니다. 읽어주셔서 감사합니다.
저는 AI를 만든 개발사를 책임져야 된다는 법이 필요하다고 생각합니다.
그 이유는 AI는 스스로 생각하고 행동하는 것이 아니라 개발사가 프로그레밍한 데로 행동하는 것이기 때문네 그 것을 프로그렘하고 만든 개발사의 책임이 크다고 봅니다. 그렇다고 개발사만 책임있는 것은 아닙니다. 오류가 발생할수 도 있는데 그럴 때 마다 남에게 피해줄 확률은 매우 낮다고 생각합니다.
그래서 저는 개발사가 책임을 주는 법이 필요하다 생각합니다.
제 글을 읽어주셔서 감사합니다.
오류가 발생한다고 남한테 피해를 줄 수 있는 확률이 왜 낮은가요?
개발사는 당연히 기본적인 검사는 물론 최대한의 시험시동을 하는 개발사도 많습니다.
당염히 피해가 나 자신의 기업에 적자를 내려고 하지 않으니까요.
인공지능이 잘못을 해도 개발사가 책임지지 않아도 됩니다 일단 인공지능은 어느 정도 생각하는 능력이 있기 때문에 잘못된 판단을 내릴 수도 있습니다, 또 오류가 일어나서 오작동을 했을 수도 있습니다 개발사는 부품을 조립하고 기본 코드를 입력하기만 하기 때문에 개발사는 전혀 잘못이 없습니다
저랑 생각이 비슷하시네요.
안녕하세요! 윤라희 기자 입니다.
저는 이 주제에 찬성하는 입장입니다. 지금부터 그 이유를 설명하도록 하겠습니다.
인간에게 끼치는 피해를 해결할 방법을 한 번이라도 생각하지 않음- 인공지능 계발사는 인공지능에서 피해를 끼치는지 안 끼치는지 수십번, 수백번이라도 판매하기 전까지 확인해야합니다. 하지만 이런 피해가 생긴다면 인공지능 회사에서는 '피해가 있어도 남 일이니까'하고 넘어갈려고 하는 마음이 있기 때문에 이런 일이 생기는 것입니다.
계발사에서 책임을 안 지면 누가 책임을 지겠습니까? 그의 피해자인 사람들이 책임을 지겠습니까? 그건 아니잖습니까. 왜냐하면 아무 잘못 없는 사람은 무슨 이유로 책임을 집니까? 그러면 ai 때문에 잘못 없는 사람들이 점점 늘어날 수도 있기 때문에 계발사가 책임져야 한다고 생각합니다. 그리고 벌을 내릴 때는 사람이 대신 벌을 받아야하므로 계발사가 책임져야 한다고 생각합니다.
반박은 대환영 입니다.
저는 개발사가 책임을 져야한다고 생각합니다.
인공지능을 디자인,설계,코딩을 계획하고 만든사람은 개발사 입니다.인공지능이 하는 일도 중요하지만,이 인공지능이 인간한테 어떤 해를 끼칠지 생각하며 피해를 입히지않도록 설계해야했습니다.사고를 일으킨 인공지능 또한 개발사가 만든것이고,그런 피해가 일어나지않도록 설계하지않은것이니 개발사의 몫입니다.또한 개발사를 벌하지않으면 인공지능을 벌해야 하는데,인공지능은 감정이 없습니다.벌은 가해자의 심리또한 고통스럽게 하려고 주는것인데,감정이 없는 인공지능에게 벌주는것은 아무 소용이 없다고 생각합니다.그러나 아무한테도 벌을 주지 않는것은 피해자에게 예의가 아니라고 생각합니다
.
이러한이유로 저는 피해를 입힌 인공지능의 개발사에게 책임을 지게 해야한다고 생각합니다.
읽어주셔서 감사합니다.
오류는 시스템의 오작동이나 환경에 따라 달라집니다.예를 들어,로봇에게 사람이 오면 피하는 코드를 입력합니다.그렇다면 실제 사례인데요,한 백화점에서 오류로 인해 AI로봇이 에스컬레이터쪽으로 굴러떨어지며 사람들을 덮쳤던 사례가 있는데요,그렇다면 작은 시스템 오류도 환경에 따라 크게 번질수 있습니다.
인공지능을 어떻게 그리고 어떤 용도로 어디서 사용할지는 사용자의 권리이자 의무입니다.
개발사는 사용자가 어떻게 사용할지 예측할 수 없습니다.그에 따른 피해도 예상하지 못하겠죠.따라서 AI로 인한 피해를 단순히 개발사 책임이라고는 볼 수 없습니다.
저는 개발자가 인공지능의 잘못에 책임을 지지 않아야 한다고 생각합니다.
1. 인공지능의 편리함
인공지능은 인간의 편리함을 위해 만든 것 입니다. 그러므로 그 종류도 굉장히 많습니다.
예를 들면 의료기기에 쓰이는 인공지능, 번역에 쓰이는 인공지능, 공항에 쓰이는 인공지능 등등이 있습니다. 그러나 이 인공지능은 모두 사람을 편리하게 하는대 공통점이 있습니다. 개발자는
사람을 위해 만든것이지 사람을 해치려고 만든 것이 아니기 때문입니다. 대체로 의료기기에 쓰이는
인공지능은 사람보다 더 정밀하게 치료나 질병 파악을 할 수 있습니다. 인간의사가 결정한 치료방법보다 인공지능의 결정한 치료방법을 인간 의사가 치료를 시행 했을때 더 좋은 예후가 나온 경우도 있습니다. 또 인공지능 파파ㄱ는 외국에서 편리하게 번역을 할 수 있고,또 인공지능 파파ㄱ는 외국에서 편리하게 번역을 할 수 있고, 챗 gpt같은 경우에는 말동무를 해 줄수도 있습니다
2.오작동
그런데 ai가 사람에게 피해를 끼쳤을때 개발자 탓만 할 수 있을까요?
보통 ai가 사람들에게 피해를 끼칠때는 ai의 오작동일 수도 있지만 사람의 실수일 수도 있습니다
또 이런일은 없어야 하지만 누군가 ai 기기를 해킹할 수도 있는 것이지요
ai가 오작동 하는 이런저런 경우가 많은데 꼭 개발자 탓만 할 수 있을까요?
만약 ai가 오작동이 났을데 개발사 탓만 하면 개발사를 운영하시는 분들은 ai사업을 접는 분들이 생길 것이고,그렇다면 나중에는 ai가 발전하지 않을 수가 있습니다.
3.개선
그러므로 우리는 ai가 사람에게 해를 끼칠시 무조건 ai개발사에게 책임을 묻는 것이 아닌
더 꼼꼼하게 문제 확인을 해야한다고 생각합니다.
감사합니다.
(중간에 버그가 나서 글이 이상한 부분이 있을 수도 있는데 양해 부탁합니다^^)
만약 2026년이 기술이 발전해 있을 확률이 훨씬 높죠?2026년의 기술력은 오류를 거의 없애는 것에 큰 기여를 할 것입니다.
코딩이 있어도 그 코딩에 대한 해킹,버그,오작동은 있습니다.해킹을 막을 방법이 있어도 막으면 또 다른 방법을 개발하지 않을까요?철저하게 막는다 해도 오작동들은 있습니다.저의 내용에서 말했듯이 사람은 실수할 수 있습니다.그렇기 때문에 충분히 발견을 못 할 가능성이 있습니다.
그리고 입력된 정보를 처리하는 정보를 처리하는 시스템이다면 Chatgpt에게 물어보는 것 자체가 잘못된 것 아닌가요?단순히 AI로 해결될 문제라면 토론을 하지 않았겠죠.
감사합니다.
-인공지능은 생각하는 능력이 있나요?
답변: 인공지능은 실제로 생각하는 힘이 있다고 보기 어렵습니다. AI는 주어진 데이터와 알고리즘을 기반으로 패턴을 인식하고 결정을 내리지만, 감정이나 자아,의식을 갖고 있지 않습니다. 단순히 입력된 정보를 처리하는 시스템이라고 할 수 있습니다.
라고 나오네요.
저는 개발사가 인공지능의 잘못에 책임을 져야한다고 생각합니다. 왜냐하면 인공지능을 처음에 만든 이유가 인간의 편리함을 위해서인데 AI가 사람을 다치게하면 AI를 만들 필요가 없기 때문입니다.
만약에 AI 로봇이 실수해서 건물로 떨어져 사람이 다치면 그건 프로그램의 탓이고 그 프로그램을 만든 것은 개발사이기 때문에 개발사 책임입니다.
개발사가 책임을 진다는 법안이 찬성되어 로봇 개발 회사가 망하게 생겨도 로봇보다 사람이 더 소중하기 때문에 그 법안은 꼭 지켜져야합니다. 그래서 인공지능의 잘못에 대해 개발사가 책임을 지는 것에 찬성합니다.
(당연히 고의로 넘겨 쓴 것은 저도 명백한 잘못이라 생각합니다.)
저는 위 내용에 반대하는 의견입니다.
첫째,
개발자가 문제였다면 이미 많은 사람들의 AI가 피해를 입혔겠죠.
AI를 만든 개발자는 만약 악의를 가졌다면 피해를 굳이 소수의 사람들에게 입히려고 하지 않지 않을까요?
둘째,
현대의 AI는 로봇 공학 3원칙을 철저하게 준수해 제작됩니다.
현대에는 이미 많은 인공지능 문제가 발생했고,그에 따른 후의 변화도 있겠죠.
셋째,
저의 1번 내용은 '이렇게 몇 명에게 발생하는 피해는 개발자의 문제가 아니다'라는 내용이였는데요.
그건 사용자의 오용을 뜻합니다.
여러분이 만약 전구를 만들었는데 어떤 사람이 불을 붙여서 피해배상을 요구합니다. 그러면 억울하고 어이없지 않으시겠습니까?
그렇다면 개발자의 입장에서도 생각해 봐야 합니다.
넷째,
사용자의 문제가 아니더라도 개발자가 고의가 아니라면 단순히 시스템 오류입니다.
인간이 만들었기 때문에 오류가 발생할 수 있습니다.
개발자도 우리와 같은 사람입니다.
우리도 행동을 할 때 실수할 수 있습니다.
그렇다면 실수한 사람을 가해자로 몰 수 없습니다.
저는 위 내용으로 반대하는 입장입니다.
감사합니다!
(반박 환영)
주의 부탁드립니다.
모든 오류가 3원칙 위반으로 일어나지 않으니 둘째 셋째 주장을 말씀드리는 것입니다.
(본인이 개발자를 뜻하는지 사용자를 뜻하는지 모르겠습니다. 설명해주시면 감사하겠습니다.)
개발사가 AI가 피해를 주어도 저는 책임을 지는 것이 좋을것 같아요. 왜냐하면 개발사는 AI를 만들 때 그런 점은 하지 않도록 프로그램을 하면 그런 일이 일어나질 않을것 같습니다.
한진희님, 인공지능에 들어가는 지능은 쉽게 말해 똑똑하다입니다. 그러니 스스로 생각해 일을 벌일 수 있는 거죠. 역사에도 왕이 전쟁을 막으려 설치한 군사들이 반란을 일으킨 경우가 있잖아요. 그럼 전쟁을 막으려 설치한 군사들이기에 반란이 일어날 가능성이 희박한데 왜 반란을 일으켰을까요?