

그냥 써본 에이아이 생각들
정리된 건 아니고, 그냥 에이아이에 대해 남들이 말한 것들이나 생각난 것들 적어 놓았습니다. 언젠가는 인사이트를 얻으리라는 생각을 하며^^
2024년 12월 30일 - Microsoft와 Meta는 전 세계 저자원 언어를 위한 오픈 AI 리소스를 개발하기 위해 협력한다고 발표했습니다. 두 회사는 현재 AI 시스템에 잘 반영되지 않은 언어들(아프리카, 남아시아 및 원주민 언어 등)을 위해 AI 언어 모델, 번역 데이터셋, 음성 인식 도구를 공동 개발하고 이를 오픈소스로 공개하기로 약속했습니다. 이 협력은 Meta의 Llama 같은 언어 모델과 번역 작업을 Microsoft의 Azure 기반 AI 인프라 및 이전 언어 프로젝트와 결합하는 것입니다. 이들의 목표는 현재 대부분의 AI가 무시하고 있는 약 4,000개의 언어를 사용하는 수십억 명의 디지털 접근성을 크게 향상시키는 것입니다. 이번 협업은 언어학자와 원어민의 참여를 포함하며, 영어와 몇몇 주요 언어에만 편중된 기술 기업의 AI 혜택에 대한 비판에 대한 대응이기도 합니다. Microsoft와 Meta는 경쟁보다는 협력을 통해 언어 포용성을 글로벌 과제로 인식하겠다는 메시지를 전달하고 있습니다.
2024년 12월 29일 - 바이든 대통령은 모든 연방 기관에서 AI 사용에 대한 통일된 기준을 수립하는 행정명령에 서명했습니다. 이 명령은 복지 자격 결정이나 이민 위험 평가와 같은 공공 결정에 사용되는 AI 시스템이 편향성과 정확성에 대해 철저한 검증을 거쳐야 하며, 결과를 공개 대시보드에 게시하도록 요구합니다. 또한, 연방 기관 직원에 대한 AI 교육을 의무화하고, 책임 있는 AI 운영을 감독할 최고 AI 책임자(Chief AI Officer)를 임명하도록 규정했습니다. 이는 이전의 가이드라인을 공식화하고 AI 태스크포스의 일부 권고를 반영한 조치로, 정부 AI 시스템의 투명성과 공정성을 보장하려는 의도입니다. 행정명령은 또한 새로운 AI 도구를 도입하기 전 '알고리즘 영향 평가(Algorithmic Impact Assessments)' 시범 프로그램을 시작하여, 사회적 영향을 사전에 평가하도록 했습니다. 이를 통해 미국 연방 정부는 세계에서 가장 AI 규제가 강한 정부 중 하나가 되었으며, 다른 나라들의 AI 거버넌스 모델이 될 수 있습니다.
2024년 12월 28일 - 유네스코는 25개국이 자사의 AI 윤리 권고안을 국가 정책에 반영했다고 발표하며 글로벌 AI 윤리 확산에 진전이 있음을 강조했습니다. 그러나 보고서는 미국과 중국을 포함한 주요 AI 개발국들이 아직 공식적으로 유네스코의 지침을 채택하지 않았다고 지적했습니다. 유네스코는 투명성, 책임성, 공정성과 같은 원칙이 담긴 지침을 모든 국가가 받아들일 것을 촉구하며, 윤리 기준이 국가별로 불균형하게 적용되면 ‘AI 안전 섬’이 생겨날 수 있다고 경고했습니다. 캐나다, 프랑스, 한국 등은 AI 공공 서비스 알고리즘 감사를 의무화하는 등 실질적인 조치를 취한 점에서 긍정적인 평가를 받았습니다. 유네스코는 ‘AI 윤리 지수’를 신설해 국가별 이행 정도를 평가하고, 이를 통해 정책 결정자들의 참여를 유도하겠다고 밝혔습니다.
2024년 12월 27일 - OpenAI는 내년 중 현재의 제한 이익 구조에서 공익 법인(PBC)으로 전환할 계획이라고 발표했습니다. 이는 AGI의 이익이 인류 전체에 돌아가야 한다는 미션을 더 잘 반영하기 위한 결정입니다. OpenAI 이사회는 이 전환을 원칙적으로 승인했으며, 새로운 정관에는 주주 이익뿐 아니라 사회적 선도 고려하도록 명시될 예정입니다. 이를 통해 사명 중심의 자본과 인재를 유치하고, 수익 추구 부문이 결정에 과도한 영향력을 행사하는 것을 방지할 수 있다고 설명했습니다. PBC가 되면 투자 유치가 용이해지면서도 윤리적 가드레일을 우선시할 법적 책임이 따르게 됩니다. 이 변화는 책임 있는 AI 거버넌스의 새로운 실험이 될 것으로 주목받고 있으며, 실제로 어떤 변화가 이루어질지는 향후 행동으로 평가받게 될 것입니다.
2024년 12월 26일 - 50개 이상의 게임 회사가 AI 사용에 대한 업계 가이드라인 채택에 합의했습니다. 이 가이드라인은 성우의 동의 없이 AI 음성 복제를 금지하고, AI로 생성된 NPC 대사나 게임 아트에 라벨을 부착하며, 아티스트나 배우의 작품을 동의 없이 AI 학습에 사용하는 것을 방지하는 내용을 담고 있습니다. EA, 액티비전과 같은 대형 퍼블리셔뿐 아니라 인디 개발사들도 참여했습니다. 이는 올해 초 게임 성우 파업 해결에서 비롯된 결과로, 향후 노동 분쟁을 방지하고 AI 사용에 대한 투명성과 공정성을 확보하기 위한 조치입니다. 이러한 기준은 AI가 게임 캐릭터 대사 등에 점점 더 많이 사용되는 상황에서, 창작자와 이용자 사이의 신뢰를 유지하는 데 기여할 것입니다.
2024년 12월 25일 - 알리바바의 DAMO 아카데미는 이미지 이해와 텍스트 생성을 통합한 비전-언어 AI 모델인 Qwen-VQ 72B를 공개했습니다. 이 모델은 복잡한 도표 해석, 시각적 수학 문제 해결 등 다중모달 추론 과제에서 GPT-4와 같은 최신 모델을 능가했습니다. 알리바바는 체스판 이미지를 분석해 다음 수를 설명하는 등의 사례를 시연했습니다. 해당 모델은 기존 Qwen 시리즈를 기반으로 하며, 일부 기능은 클라우드 서비스를 통해 기업 고객에 제공될 예정입니다. 이는 중국 기술 기업들이 텍스트 외에도 멀티모달 AI 분야에서 선두를 다투고 있음을 보여주며, 미중 AI 경쟁 구도 속에서 중요한 진전을 의미합니다.
2024년 12월 24일 - 중국 AI 기업 바이두는 ERNIE 4.0 모델이 중국 내 1,000개 이상의 정부 서비스에 도입되었다고 발표했습니다. ERNIE 모델은 GPT-4와 유사한 성능을 갖추고 있으며, 시민 상담 챗봇, 서류 자동 처리, 공공 서비스 고객 지원 등 다양한 분야에 활용되고 있습니다. 정부의 적극적인 지원으로 빠르게 확산되고 있으며, 응답 정확도와 처리 속도가 크게 향상됐다는 평가를 받고 있습니다. 단, 모든 출력은 정치적 민감성 등 중국 규제에 따라 엄격히 모니터링되고 필터링됩니다. 이처럼 대규모 현실 적용은 AI 언어 모델의 활용에서 중국이 주도권을 잡고 있다는 점을 보여주며, 동시에 중앙집중식 데이터 운용에 대한 우려도 제기되고 있습니다.
2024년 12월 23일 - 일론 머스크의 xAI는 60억 달러 규모의 신규 투자를 유치했다고 발표했습니다. 이는 올해 스타트업 중 최대 규모의 단일 자금 조달 중 하나입니다. 이 자금은 xAI의 “TruthGPT” 모델 개발에 사용되며, 이 모델은 편향 없이 우주를 이해하려는 ‘최대의 호기심을 지닌 AI’를 목표로 합니다. 중동 투자자와 초기 테슬라 후원자들이 투자에 참여했으며, 2025년 말까지 X(구 트위터)에 이 시스템을 통합할 계획도 공개됐습니다. 상업 제품이 아직 없는 상황에서도 대규모 투자를 받은 것은 머스크의 비전에 대한 신뢰를 보여주는 것이며, 향후 GPT 계열과 차별화된 AI를 만들어낼 수 있을지 관심이 집중되고 있습니다.
2024년 12월 22일 - 워싱턴 D.C.의 한 저명 싱크탱크는 AI 기반 선전이 2025년 선거에 심각한 위협이 될 수 있다는 경고 보고서를 발표했습니다. 보고서는 내년에 선거가 예정된 12개 이상의 국가에서 악의적 세력이 AI를 이용해 가짜 뉴스 기사, 후보자의 딥페이크 영상, 자동화된 트롤 팜 등을 생산해 대규모로 허위 정보를 유포하고 있다고 지적했습니다. 보고서는 정부가 AI로 제작된 정치 광고의 공개를 의무화하고, 딥페이크 인식 공공 캠페인을 지원하며, 실시간 팩트체킹 그룹을 강화해야 한다고 권고했습니다. 또한 유엔 등 국제 기구를 통한 글로벌 대응 규범 마련도 제안했습니다. ‘민주주의에 대한 임박한 위협’이라는 표현은 의회와 기술 기업의 주목을 끌었으며, 일부 기업은 정치 콘텐츠에 워터마크를 도입하는 방안에 지지 의사를 밝혔습니다.
2024년 12월 21일 - Meta는 5초 음성 샘플만으로 사람의 목소리를 복제해 여러 언어로 음성을 생성할 수 있는 ‘Voicebox’ 도구를 공개했습니다. 이 도구는 영상 더빙, 음성 복원 등 긍정적인 활용 사례가 있으나, 사기 및 딥페이크 악용 가능성도 존재합니다. 이에 따라 Meta는 Voicebox를 일부 파트너에게만 제공하고 있으며, 이 기술로 생성된 콘텐츠를 식별하는 기능도 플랫폼에 탑재했습니다. Meta는 헐리우드 스튜디오와 협업해 다국어 영화 더빙을 시험 적용하는 등 초기 산업 도입을 시도 중이며, 윤리 및 법적 기준이 뒤따라야 한다는 점도 강조하고 있습니다.
2024년 12월 20일 - OpenAI는 “12일간의 AI” 이벤트의 마지막 날 차세대 AI 모델 시리즈의 프로토타입 “o3(Orion)”를 공개했습니다. 실시간 데모에서는 복잡한 분석 질문 해결, 고급 수학 문제 풀이, 긴 에세이 작성 등이 정확하게 수행되었습니다. 연구진은 o3가 다단계 논리 추론을 위한 최적화된 구조와 자체 검증 메커니즘을 갖추고 있어 오류가 크게 줄었다고 설명했습니다. 아직 공개되지는 않았지만, 이 모델은 향후 GPT-5의 핵심이 될 가능성이 있으며, AI가 인간 수준의 인지 능력에 더욱 가까워지고 있음을 보여주는 사례로 주목받고 있습니다.
2024년 12월 19일 - Google은 기대를 모았던 AI 모델인 Gemini 2.0을 공식 출시하고, 이를 Google Cloud의 Vertex AI 플랫폼을 통해 기업 고객에게 제공하기 시작했습니다. Gemini 2.0은 Google의 GPT-4 대응 모델로, "플래시 싱킹(Flash Thinking)"이라는 기술을 도입해 복잡한 문제를 부분적으로 분해하고 자가 피드백을 통해 반복적으로 해결합니다. 논리 퍼즐 및 코딩 과제 비교 테스트에서, 초기 사용자는 Gemini가 속도와 정확도 면에서 GPT-4를 종종 능가했다고 평가했습니다. 또한 Google은 Gmail과 Docs에 Gemini 기반의 업그레이드를 곧 적용할 예정이며, 이를 통해 문맥 인지형 이메일 응답 및 문서 요약 기능이 더욱 향상될 것입니다. 같은 날, OpenAI는 "ChatGPT Work with Apps" 기능을 발표했으며, 이는 사용자의 컴퓨터 내 로컬 애플리케이션과 ChatGPT가 상호작용할 수 있도록 합니다(사용자 허가 필요). 예를 들어, Word 문서를 기반으로 PowerPoint를 자동 생성하거나 Outlook을 통해 이메일을 보낼 수 있습니다. 이로 인해 ChatGPT는 다중 앱 워크플로를 실행하는 개인 비서로 진화하고 있습니다. 이 동시 발표는 AI 어시스턴트 기술이 빠르게 발전하고 있음을 보여주며, Google은 자사 생태계에의 통합과 성능 중심에 집중하고, OpenAI와 Microsoft는 사용자 행동을 대리 수행하는 AI 에이전트의 한계를 넓히고 있습니다.
2024년 12월 18일 - OpenAI는 ChatGPT 접근성을 확대하기 위해 무료 전화 서비스를 도입하고, WhatsApp에 공식 챗봇으로 ChatGPT를 통합했습니다. 사용자는 1-800 번호로 전화해 OpenAI의 향상된 음성 인식 및 음성 합성 기능을 통해 실시간 대화를 나눌 수 있습니다. 한편 WhatsApp에서는 ChatGPT 챗봇을 추가해 채팅 기반으로 정보를 얻거나 도움을 받을 수 있습니다. 이 조치는 인터넷 접근이 제한된 사용자들이 전화로 AI를 사용할 수 있도록 하거나, WhatsApp을 주요 통신 수단으로 사용하는 지역의 이용자를 대상으로 합니다. 이는 웹 기반 영어 사용자 외의 세계적인 일반 대중에게 고급 AI 지원을 제공하려는 가장 큰 시도 중 하나이며, 특히 WhatsApp 챗봇은 빠른 질문과 번역 요청에 대해 긍정적인 반응을 얻고 있습니다. OpenAI는 문화적 또는 언어적 오해를 방지하기 위해 사용 패턴을 면밀히 모니터링하고 있습니다.
2024년 12월 17일 - YouTube와 유명 연예기획사 CAA는 유명인의 얼굴이나 목소리를 사용하는 AI 콘텐츠에 대한 새로운 정책과 도구를 발표했습니다. 새로운 규정에 따르면 유명인의 이미지를 AI로 재현한 영상은 패러디나 딥페이크임을 명확히 표시해야 하며, 그렇지 않고 오해를 유발할 경우 삭제됩니다. 또한, YouTube는 AI로 제작된 의심스러운 콘텐츠를 탐지하는 감지 모델을 도입하고, CAA와 협력한 전담 팀이 해당 콘텐츠를 검토합니다. 이미 수십 개의 무단 AI 음성 모방 영상을 삭제한 사례도 있습니다. 다수의 배우를 대표하는 CAA는 이러한 조치를 환영하며, 일부 계약 조건에 이러한 내용을 포함시켰다고 밝혔습니다. 이는 딥페이크 콘텐츠에 대한 업계 최초의 공동 대응 중 하나로, 팬들은 재미있는 AI 콘텐츠를 즐길 수 있지만, 유명인을 상업적 목적이나 기만적으로 모방하는 행위는 이제 명백히 금지됩니다. 이는 다른 플랫폼에도 영향을 미칠 중요한 선례입니다.
2024년 12월 16일 - 백악관은 DEF CON에서 진행된 AI 모델 대규모 적대 테스트(레드팀) 결과에 대한 상세 보고서를 발표하고, 이어 AI 기업들과 안전 강화를 위한 협약을 체결했습니다. 보고서에는 탈출 지시문(jailbreak prompts) 및 학습 데이터 유출 등의 사례가 포함되었으며, 개발 과정 전반에 걸쳐 적대적 테스트를 포함할 것을 권고했습니다. 이에 대응해 OpenAI, Google, Meta, Anthropic 등 주요 AI 기업들은 “최첨단 모델 안전 포럼(Frontier Model Safety Forum)”이라는 새로운 협의체를 구성한다고 발표했습니다. 이 포럼은 고급 AI 모델의 취약점, 모범 사례를 공유하고, 안전 기준을 공동으로 마련하는 데 목적이 있습니다. 이는 과거 대형 기술 기업들이 보안 협의체를 구성했던 방식과 유사하며, 바이든 행정부는 자율 규제 조치를 환영하면서도 향후 필요 시 규제를 도입할 수 있음을 시사했습니다. 이번 조치는 여름 이후 AI 안전에 대한 정책 추진의 실질적인 결과로, 향후 강력한 AI 모델에 대한 안전 인증 체계 구축의 기반이 될 수 있습니다.
2024년 12월 15일 - ChatGPT는 “지속적 메모리(persistent memory)” 기능을 새롭게 도입했습니다. 이 기능은 사용자 동의 하에 이전 대화에서 얻은 사용자 정보나 선호도를 기억하고, 이후 대화에서 이를 기반으로 더 개인화된 응답을 제공할 수 있도록 합니다. 예를 들어 생일이나 좋아하는 책 장르를 언급하면, 이후 대화에서 해당 정보를 적절히 활용할 수 있습니다. 이는 과거의 무상태(stateless) 설계에서 벗어나 지속적인 개인 비서와 같은 역할을 가능하게 합니다. OpenAI는 장기 메모리 정보가 안전하게 저장되며, 타인의 세션 훈련에 사용되지 않는다고 강조했습니다. 이 기능은 반복 설명의 필요성을 줄이고 대화를 더 인간적으로 만들어주는 점에서 긍정적인 반응을 얻고 있으며, 장기적인 AI 도우미의 방향으로 나아가는 중요한 단계입니다.
2024년 12월 14일 - 넷플릭스는 올해 초 도입한 OpenAI 기반 추천 알고리즘 덕분에 시청자 참여 지표가 크게 향상됐다고 발표했습니다. 사용자당 평균 콘텐츠 시청 시간이 12% 증가했으며, 이는 AI 기반 개인 맞춤 추천 시스템 덕분이라는 설명입니다. 플랫폼은 이제 사용자가 좋아할 가능성이 높은 틈새 콘텐츠를 더 잘 찾아주고, 사용자 취향에 맞는 요약 및 예고편을 자동 생성합니다. 예를 들어, 같은 프로그램이라도 두 사용자는 서로 다른 하이라이트 영상을 보게 됩니다. 이 기능은 구독 이탈률을 줄이는 데 효과적이며, 사용자에게 계속 흥미로운 콘텐츠를 제공함으로써 유지율을 높이고 있습니다. 넷플릭스의 성공은 스트리밍 산업에서 AI의 가치를 보여주는 사례로, 경쟁사들도 유사 기술에 투자할 가능성을 높이며, 동시에 AI 기반 마이크로 타겟팅이 소비자 행동에 미치는 영향에 대한 논의도 촉발하고 있습니다.
2024년 12월 13일 - OpenAI는 일론 머스크의 X Corp.(트위터)가 OpenAI가 허가 없이 트위터 데이터를 수집했다고 주장하며 제기한 소송에 대해 반소를 제기했습니다. OpenAI는 반소에서, 머스크가 OpenAI에 대해 "무모하다", "수익 중심적이다"는 등의 공공 비난과 위협은 OpenAI의 사업을 훼손하려는 시도이며 명예 훼손 및 부당한 간섭에 해당한다고 주장했습니다. 또한 OpenAI는 웹상에 공개된 데이터를 사용할 권리가 있으며, 일부 데이터 사용 합의가 이루어진 당시 머스크 본인이 OpenAI 이사회에 있었음을 지적했습니다. 이 법적 충돌은 머스크가 OpenAI의 공동 창립자였다는 점에서 이례적이며, 이제는 머스크의 “진실 추구형” AI와 OpenAI의 시장 지배력 간의 대립으로 주목받고 있습니다. 이번 소송 결과는 소셜 플랫폼의 데이터가 AI 기업에 의해 어떻게 사용될 수 있는지를 결정할 수 있으며, AI 리더십의 분열된 현실을 보여줍니다.
2024년 12월 12일 - Midjourney는 약 1년 만에 첫 대규모 모델 업데이트인 AI 이미지 생성기 Version 7을 사용자에게 공개했습니다. V7의 핵심은 사진처럼 정밀한 사실성(포토리얼리즘)으로, 이제는 사람 얼굴과 손을 거의 실제 사진처럼 재현할 수 있으며, 복잡한 장면에서도 다수 인물을 효과적으로 처리할 수 있습니다. 초기 사용자들은 V7이 생성한 이미지와 실제 사진을 구분하지 못하는 사례를 다수 공유했습니다. 예술가들은 더욱 일관성 있는 스타일과 조명 제어 기능 등 향상된 기능을 환영했지만, 스톡 사진 에이전시 및 일부 사진작가들은 시장에 넘쳐날 현실감 높은 AI 이미지에 대해 우려를 표했습니다. Midjourney는 여전히 AI 이미지에 라벨을 부착할 것을 권장하고 있으며, 실제 인물의 얼굴을 그대로 복제하는 것은 금지된다는 기존 정책을 유지하고 있습니다. V7의 출시는 생성형 AI 경쟁에서 기준을 끌어올리는 한편, 초현실적 비주얼의 진위성과 소유권 문제에 대한 논쟁을 가속화시키고 있습니다.
2024년 12월 11일 - 노벨 화학상은 기계 학습을 활용해 분자 설계를 혁신한 세 명의 연구자에게 수여되었습니다. 노벨 위원회는 이들이 개발한 AI 시스템이 새로운 화합물의 특성을 예측할 수 있게 해주며, 이를 통해 신촉매 및 신소재가 발견되었다고 밝혔습니다. 이는 노벨상이 AI의 과학적 발견 기여를 명확히 인정한 첫 사례로, AI가 기초 연구에 미치는 영향을 공식적으로 인정한 셈입니다. 수상자 중 한 명은 컴퓨터 과학자들과 협력해 고효율 태양전지에 사용될 분자를 빠르게 찾을 수 있는 알고리즘을 개발했습니다. 이들의 성공은 이미 화학 및 생물학 분야에 AI 기반 연구의 물결을 불러일으키고 있습니다. 위원회는 이번 업적이 "인간의 과학적 통찰력과 AI의 생성 및 분석 능력이 결합하여 혁신을 가속화할 수 있음을 보여준다"고 강조하며, 앞으로 AI 기반 융합 연구의 추가적 인정 가능성을 시사했습니다.
2024년 12월 10일 - Reddit은 내년부터 모든 사용자 게시글 데이터에 대한 API 접근에 대해 상업적 AI 개발자에게 요금을 부과하겠다고 발표했습니다. 이는 많은 AI 언어 모델이 Reddit에서 데이터를 수집해 사용했음에도 보상이 이루어지지 않았다는 사실이 밝혀진 이후 나온 조치입니다. 새로운 정책 하에서는 비영리 및 학술 목적의 API 사용은 여전히 무료이지만, 영리 AI 기업은 사용량에 따라 구독 요금을 지불해야 합니다. Reddit의 이 결정은 앞서 Twitter가 API 제한을 가한 것과 유사하며, 플랫폼들이 자신들의 고품질 데이터에 대해 수익화를 모색하는 흐름을 보여줍니다. AI 기업들은 더 나은 대화형 데이터를 확보하기 위해 비용을 지불하거나, 덜 정제된 공개 데이터를 사용해야 할 상황에 직면하고 있습니다. 일부 오픈소스 AI 지지자들은 소규모 개발자가 불리해질 수 있다고 우려하는 반면, 다른 이들은 고수익 AI 기업이 데이터 제공자 커뮤니티에 기여하는 것이 공정하다고 평가합니다.
2024년 12월 09일 - 이탈리아 개인정보보호청은 새로운 연령 확인 및 개인정보 보호 조치를 이행한 AI 챗봇 서비스에 대한 사용 금지를 해제했습니다. 이 챗봇은 ChatGPT와 유사하며, 2023년 초 프라이버시 문제로 인해 이탈리아에서 일시 차단된 바 있습니다. 이번에 서비스는 13세 미만 사용자의 접근을 막기 위한 연령 확인 기능을 도입했고, 이탈리아 사용자에게 데이터 사용에 대한 명확한 거부 옵션과 EU 기준에 부합하는 개인정보 보호 정책을 제공했습니다. 이러한 개선 사항에 따라 이탈리아 당국은 사용 재개를 승인했습니다. 이 사례는 AI 기업들이 각국의 규제 요구 사항에 맞춰 조정하고 있음을 보여주며, GDPR 및 지역 지침에 부합하는 것이 단순 권고가 아닌 AI 서비스 운영의 필수 조건임을 시사합니다.
2024년 12월 08일 - 아마존의 알렉사는 대형 언어 모델을 탑재한 대규모 업데이트를 받아 대화 능력과 문맥 인지력이 크게 향상되었습니다. 사용자들은 알렉사가 이제 다중 회차 대화를 이어갈 수 있으며, 예전 질문을 기억하거나 문맥에 따라 능동적으로 도움을 제안하는 기능이 생겼다고 평가했습니다(예: Echo Show 카메라가 요리 중임을 인식하고 레시피를 제안). 또한 새 알렉사는 잠자리 동화나 농담을 보다 인간처럼 자연스럽게 생성할 수 있습니다. 아마존은 모든 처리가 로컬 또는 클라우드 상에서 강력한 프라이버시 보호 하에 이루어진다고 강조했습니다. 이 업데이트는 구형과 신형 Echo 기기 모두에 적용되며, 알렉사를 단순 명령형 어시스턴트에서 보다 적응형 AI 에이전트로 진화시켜, Google Assistant 및 Apple Siri와의 경쟁력을 유지하게 됩니다.
2024년 12월 07일 - 세계 최초의 AI 운용 상장지수펀드(ETF)가 뉴욕 증권거래소에 상장되어 거래를 시작했습니다. 'AI Equity Index'라는 이름의 이 펀드는 수십 년간의 시장 데이터를 학습한 고유 AI 알고리즘이 글로벌 주식 포트폴리오를 자동으로 선정하고 운용합니다. AI는 시장 지표 및 뉴스 감성을 자연어 처리로 분석하여 보유 종목을 동적으로 조정합니다. 6개월 간의 테스트에서 일부 벤치마크 지수를 능가하는 성과를 보였지만, 실거래 시장은 예측 불가능하다는 전문가들의 경고도 나왔습니다. 미국 증권거래위원회(SEC)는 알고리즘의 투명성이 확보되었는지를 검토한 뒤 해당 펀드를 승인했습니다. 이 ETF가 성공한다면, 금융 분야에서도 AI 기반 투자 상품의 시대가 열릴 수 있으며, 동시에 AI 오류나 편향에 대한 책임 문제도 대두될 수 있습니다.
2024년 12월 06일 - “AI의 대부”로 불리는 제프리 힌턴이 향년 77세로 별세했습니다. 힌턴은 수십 년 전 신경망 연구의 선구자로, 역전파 알고리즘과 심층 신뢰 네트워크의 개발에 핵심적인 역할을 했으며, 현재 딥러닝 혁명의 기반을 마련했습니다. 그는 또한 업계 주요 인물들을 멘토링하며 AI 발전에 지대한 영향을 끼쳤습니다. 최근 몇 년간은 Google을 떠난 후 AI의 위험성에 대한 우려를 공개적으로 제기한 인물로도 알려져 있습니다. DeepMind의 데미스 하사비스는 힌턴이 과학자 세대에게 영감을 주었다고 추모했고, Meta의 얀 르쿤은 그를 진정한 비전가라 칭송했습니다. 힌턴의 별세는 딥러닝의 3대 개척자(힌턴, 르쿤, 벵지오) 중 마지막으로 활동하던 인물의 시대가 끝났음을 의미하며, 초기 신경망 옹호가 외롭고 미미했던 시절부터 오늘날 AI 기술이 세상을 변화시키는 데까지의 긴 여정을 돌아보게 만듭니다.
2024년 12월 05일 - Meta는 텍스트 설명으로부터 짧은 동영상을 생성할 수 있는 AI 모델 “Emu(Expressive Media Universe)”를 오픈소스로 공개했습니다. Emu는 “공원에서 스케이트보드를 타는 개”와 같은 다양한 프롬프트를 기반으로 256×256 크기의 5초 분량 비디오를 생성할 수 있으며, 이미지 생성과 보간 프레임 기술을 결합한 방식으로 작동합니다. 영상은 아직 낮은 해상도와 일부 거칠음을 보이지만, 텍스트-영상 생성 기술에서는 중요한 진전을 나타냅니다. Meta는 Emu의 훈련 데이터셋과 함께 GitHub에 공개함으로써 연구자 및 크리에이터들이 자유롭게 실험하고 기술을 발전시킬 수 있도록 했습니다. 이는 정체성을 유지하면서도 커뮤니티의 협력을 통해 시간 일관성 같은 문제를 해결하려는 전략적 행보이며, 정지 이미지를 넘어서 영상 생성 AI의 다음 단계에서 주도권을 잡으려는 Meta의 의도를 반영합니다.
2024년 12월 04일 - OpenAI에서 수십 명의 직원이 회사의 장기 계획 및 안전 전략에 대한 불투명성에 항의하며 집단 퇴근(워크아웃) 시위를 벌였습니다. 이들 중 일부는 안전팀 소속 연구원들이었으며, 경영진에게 OpenAI의 빠른 상업 확장이 설립 당시의 인류 공익 미션과 어떻게 일치하는지를 더 명확히 설명하라고 요구했습니다. 이는 전체 인력 중 소수였지만, 인류에 이로운 AI를 표방하는 OpenAI에게는 상징적인 사건이었습니다. OpenAI CEO는 전 직원 회의를 통해 향후 모델 평가 정보를 더 많이 공개하고, 전략 논의에 직원들을 더 많이 참여시키겠다고 약속했습니다. 이번 사건은 OpenAI가 성장과 수익 추구(고비용 연구를 위한)와 윤리적 책임 사이의 균형을 맞추는 데 직면한 내부 긴장을 부각시키며, 직원들이 설립 정신을 얼마나 중시하는지를 보여주는 사례였습니다.
2024년 12월 03일 - Stability AI는 최신 이미지 생성 모델인 Stable Diffusion 3.0을 출시했습니다. 이번 모델은 시각적 품질과 일관성에서 크게 향상되었으며, 특히 그동안 생성형 AI 모델의 약점이었던 사람의 손과 이미지 내 텍스트 표현을 훨씬 더 정확히 처리할 수 있게 되었습니다. 또한 SD 3.0에는 선택적 “책임 모드” 필터가 도입되어, 이를 활성화하면 폭력적이거나 성인용 콘텐츠의 생성을 기본적으로 차단할 수 있습니다. SD 3.0은 상업적 및 연구용으로 모두 무료로 제공되며, Stability AI가 이미지 생성 AI 분야의 오픈소스 선두주자로서의 입지를 강화하는 계기가 되고 있습니다. 이는 개발자와 아티스트에게 고품질 비주얼을 생성할 수 있는 자유를 제공하면서도, 오픈 모델이 악용될 수 있다는 우려에 대해 안전 기능으로 균형을 맞추려는 시도로 평가됩니다.
2024년 12월 02일 - 탐사보도 기자들과 팩트체커들로 구성된 연합이 온라인 허위정보 대응을 위한 AI 기반 팩트체킹 서비스 “VeritasAI”를 출시했습니다. VeritasAI는 거짓 또는 오해의 소지가 있는 주장을 탐지하고, 이를 신뢰할 수 있는 데이터베이스 및 뉴스 출처와 신속하게 교차 검증할 수 있는 대형 언어 모델을 기반으로 작동합니다. 텍스트뿐 아니라 이미지, 영상의 조작 여부나 맥락 왜곡 여부도 분석할 수 있습니다. 주요 언론사는 VeritasAI를 뉴스룸에 통합해, 특히 X(구 트위터)나 WhatsApp 같은 빠르게 변화하는 플랫폼에서 실시간 검증에 활용할 예정입니다. 이 서비스는 Google과 Meta의 허위정보 대응 기금 일부로 지원되었으며, AI가 정보 신뢰성을 유지하는 데 기여할 수 있음을 보여주는 사례입니다. 다만 제작자들은 AI는 인간 저널리즘 판단을 보완하는 수단이지 대체 수단은 아니라고 강조했습니다.
2024년 12월 01일 - AI로 설계된 폐섬유증 치료 후보 약물이 미국에서 2상 임상시험에 진입하며 유망한 결과를 보였습니다. 이 약물은 영국 기반의 Exscientia가 자사의 AI 플랫폼을 통해 발견한 것으로, 1상 시험에서는 안전성이 높고 일부 환자에게 폐 기능 개선 효과가 나타났습니다. 이는 AI가 설계한 약물이 중기 임상 단계까지 진출한 첫 사례로 기록되며, AI 기반 접근 방식이 약물 발견 시간을 크게 단축시켰다는 점에서 주목받고 있습니다. 연구진은 이 방법이 전통적 방식보다 빠르게 효과적인 치료제를 개발할 수 있을 것으로 기대하고 있으며, 향후 2상 결과가 긍정적일 경우 AI가 제약 산업의 패러다임을 바꾸는 역할을 할 수 있을 것으로 전망됩니다.
2024년 11월 30일 - Microsoft와 Meta는 저자원 언어에 대한 AI 언어 지원 확대를 목표로 한 깜짝 파트너십을 발표했습니다. 두 회사는 아프리카, 아시아, 태평양 지역의 100개 이상의 대표성 낮은 언어를 대상으로 대형 언어 모델을 공동 개발하고, 이를 오픈소스로 공개하기로 약속했습니다. 이와 함께 번역 데이터셋과 평가 기준도 함께 제공될 예정입니다. 글로벌 디지털 포용 포럼(Global Digital Inclusion Forum)에서 발표된 이번 협력은 Meta의 No Language Left Behind 프로젝트와 Microsoft의 AI 인프라 역량을 결합한 것입니다. 이들은 결과물을 모두 무료로 제공함으로써, 잘 알려지지 않은 언어를 사용하는 수십억 명에게 생성형 AI 및 번역 도구의 혜택을 제공하고 디지털 격차를 해소하는 것을 목표로 합니다.
2024년 11월 29일 - 바이든 대통령은 연방 기관의 AI 사용에 대한 새로운 기준을 확립하는 행정명령에 서명했습니다. 이는 2023년 AI 행정명령에서 약속한 내용을 구체화한 것으로, 즉시 발효됩니다. 앞으로 공공에 영향을 미치는 AI 시스템(복지 수혜 판단 알고리즘, 정부 웹사이트 챗봇 등)은 편향, 프라이버시, 효과성을 평가하는 알고리즘 영향 평가를 반드시 수행해야 합니다. 또한 각 기관은 책임 있는 AI 활용을 감독할 AI 책임자를 임명하고, AI 사용 현황에 대한 연례 공공 보고서를 제출해야 합니다. 이번 조치는 공공 부문에서 신뢰받는 AI의 모범을 제시하고, AI가 공공 서비스를 개선하는 방향으로 사용될 것이라는 국민의 신뢰를 구축하는 데 목적이 있습니다.
2024년 11월 28일 - 유네스코는 2024년 말까지 25개국이 2021년 채택된 ‘AI 윤리에 관한 권고안’에 따라 국가 차원의 AI 윤리 전략을 수립했다고 발표했습니다. 그러나 보고서는 주요 AI 개발국들 중 일부는 원칙을 정책으로 전환하는 데 느린 속도를 보이고 있다며, 특히 G7 국가들이 모범을 보여야 한다고 촉구했습니다. 유네스코 사회과학국장은 국가들이 "권고 수준"을 넘어 투명성, 책임성, 데이터 프라이버시를 법으로 강제하는 방향으로 나아가야 한다고 강조했습니다. 이번 연말 평가는 AI 가치에 대한 국제적 합의가 진전되고 있음을 보여주는 한편, 실제 AI 적용에 이러한 가치가 제대로 반영되도록 계속된 노력이 필요함을 시사합니다.
2024년 11월 27일 - OpenAI는 현재의 제한 이익 구조에서 공익 법인(PBC, Public Benefit Corporation)으로 전환할 것이라고 발표했습니다. 이사회가 승인한 이번 변화는 OpenAI의 "인류 전체를 위한 AI"라는 사명을 보다 구조적으로 반영하기 위한 조치입니다. PBC가 되면 투자 유치는 계속 가능하지만, 주주 이익뿐 아니라 사회적 선도 법적으로 고려해야 합니다. 샘 알트먼 CEO는 이 변화가 막대한 컴퓨팅 자금 확보를 돕는 동시에, 수익 동기가 안전을 저해하지 않을 것이라는 점을 대중과 규제 당국에 확신시킬 수 있다고 설명했습니다. 이 전환은 2025년에 완료될 예정이며, 향후 기업공개나 대규모 투자 유치의 기반이 될 수 있으며, AI 업계에서 새로운 거버넌스 실험으로 주목받고 있습니다.
2024년 11월 26일 - 수개월간의 교착 상태 끝에, 비디오 게임 성우들의 파업이 마침내 주요 게임 스튜디오가 조합의 핵심 요구를 수용하면서 해결되었습니다. 약 80개 게임 회사가 AI로 음성이나 연기를 재현할 경우 성우의 동의를 얻고 공정한 보상을 제공하며, AI로 성우를 완전히 대체하지 않겠다는 합의에 서명했습니다. 이번 합의로 게임 개발이 재개되며, AI가 성우들의 생계를 위협하기보다는 도구로서 사용되도록 하는 업계 표준을 세운 것으로 평가받고 있습니다. 이는 헐리우드 배우들이 AI 관련 조항을 확보한 것과 유사한 흐름을 게임 업계로 확장시킨 사례이며, 향후 유사한 분쟁을 방지할 수 있는 선례로 작용할 전망입니다.
2024년 11월 25일 - 알리바바의 DAMO 아카데미는 두 개의 첨단 AI 모델을 발표했습니다. 하나는 논리적 추론과 문제 해결에 특화된 “Marco-o1”, 다른 하나는 이미지와 텍스트를 통합 분석할 수 있는 320억 파라미터 규모의 비전-언어 모델 “QvQ-32B-Preview”입니다. 내부 테스트 결과 이 모델들은 기존 모델보다 복잡한 문제 해결이나 도표 해석에서 더 뛰어난 성능을 보였습니다. 알리바바는 이러한 연구 성과를 통해 글로벌 AI 경쟁에서 여전히 선두에 있음을 보여주려 하고 있으며, 두 모델은 연구자 대상 프리뷰 형태로 공개되며, 향후 알리바바 클라우드 서비스에 통합될 가능성도 있습니다. 이는 중국의 대형 모델 개발이 추론 및 다중 모달 이해 능력에서 빠르게 진화하고 있음을 보여줍니다.
2024년 11월 24일 - 중국 AI 스타트업 DeepSeek는 Mixture-of-Experts 아키텍처를 활용한 오픈소스 AI 모델 “DeepSeek V3”를 출시했습니다. 이 모델은 언어 및 추론 벤치마크에서 최고 수준의 성적을 거두었으며, 특히 약 1천만 달러 미만의 예산으로 훈련되었다는 점이 주목받고 있습니다. DeepSeek V3는 각 작업을 전문화된 “전문가” 서브네트워크에 동적으로 분산시켜 효율적으로 고성능을 달성했습니다. 일부 테스트에서는 규모가 더 큰 기존 모델을 능가한 성과를 보여, 아키텍처의 지능적인 설계가 모델 크기를 대체할 수 있음을 입증했습니다. 이 성공은 오픈소스 AI 경쟁을 가속화시키며, DeepSeek V3는 즉시 대표적인 무료 공개 모델로 자리매김하여 OpenAI 같은 대기업의 독점 모델과의 격차를 좁히는 데 기여할 수 있습니다.
2024년 11월 23일 - 일론 머스크의 AI 벤처 xAI는 시리즈 C 투자 라운드에서 무려 60억 달러를 확보하며 기업 가치를 약 450억 달러로 두 배 이상 끌어올렸습니다. 머스크는 이 자금을 "TruthGPT"라는 챗봇 개발에 사용할 계획이며, 이 챗봇은 기존 AI 시스템보다 편향이 적고 진실을 추구하는 방향으로 설계된다고 밝혔습니다. 투자자들은 머스크의 이력과 xAI의 도전적인 목표에 매력을 느꼈으며, 이는 OpenAI, Google 등의 기존 강자들과의 2025년 대결을 예고합니다. 이번 대규모 투자는 AI 분야의 거대한 비전에 대한 투자자들의 높은 관심과 기대를 반영하고 있습니다.
2024년 11월 22일 - Amazon과 Anthropic은 파트너십을 강화하며, Amazon이 Anthropic에 40억 달러를 추가 투자하기로 했습니다(기존 12.5억 달러 투자 포함). 이 협약에는 AWS에서 Claude 모델을 기본 옵션으로 통합하는 내용도 포함되어 있으며, 양사는 Amazon의 Trainium 기술을 활용한 맞춤형 AI 칩 공동 개발에도 착수합니다. 총 가치가 80억 달러에 달하는 이번 확장 계약은 Anthropic이 OpenAI와 경쟁할 수 있는 자원을 확보하도록 돕는 동시에, Amazon이 최첨단 AI 역량을 제공하는 주요 클라우드 플랫폼으로서의 입지를 더욱 굳히는 계기가 됩니다.
2024년 11월 21일 - 미국 식품의약국(FDA)은 유방촬영 이미지를 분석하여 암 의심 병변을 방사선 전문의에게 알리는 AI 도구를 승인했습니다. 임상 시험 결과 이 AI는 조기 유방암을 20% 더 많이 발견하면서도 오탐률은 낮춘 것으로 나타났습니다. 이는 미국에서 광범위한 규제 승인을 받은 최초의 AI 진단 기기 중 하나입니다. 이 AI는 보조 도구로 사용되며 최종 판단은 방사선 전문의가 내리지만, 의료 분야에서 AI의 본격적인 수용의 이정표로 평가받고 있습니다. 전문가들은 FDA의 승인을 계기로 이 AI가 빠르게 병원에 보급되어 조기 진단과 생명 구호에 기여할 것으로 예상하고 있습니다.
2024년 11월 20일 - Microsoft는 음성 인식 및 헬스케어 AI 전문 기업 Nuance Communications를 197억 달러에 인수 완료했다고 발표했습니다. 이 인수는 2년간 여러 국가의 규제 심사를 거친 끝에 마무리되었습니다. Nuance는 병원용 의료 음성 AI와 과거 Apple의 Siri 기술 기반으로 잘 알려져 있습니다. Microsoft는 Nuance의 기술을 Azure AI 및 Microsoft Cloud for Healthcare에 통합하고 있으며, 이 대형 인수는 기술 대기업들이 전문 분야의 기존 AI 솔루션에 강한 관심을 보이고 있음을 보여줍니다. Microsoft는 이번 인수를 통해 Amazon 및 Google과의 클라우드 기반 AI 경쟁에서 중요한 무기를 확보하게 되었습니다.
2024년 11월 19일 - 미국 연방거래위원회(FTC)는 기업들이 AI를 사용할 경우 소비자에게 영향을 주는 결정이 공정하고 투명해야 한다는 새로운 가이드라인을 발표했습니다. FTC는 특히 신용, 주거, 고용 결정에 사용되는 “편향된 알고리즘”에 대해 경고하며, AI로 인한 피해 발생 시 기업이 소비자 보호법과 차별금지법에 따라 책임을 져야 한다고 강조했습니다. “AI가 한 일”이라는 이유만으로 법적 책임에서 면제될 수는 없다고도 밝혔습니다. 이번 발표는 금융 및 인사 분야 등 AI를 활용하는 업계가 기존 법률의 적용을 받으며, 그 사용이 엄격히 규제될 것이라는 점을 명확히 한 것입니다.
2024년 11월 18일 - Stability AI는 텍스트 기반 이미지 생성 모델인 Stable Diffusion 3.0을 오픈소스로 출시했습니다. SD 3.0은 사람의 손과 얼굴 묘사 품질이 대폭 향상되었으며, 커뮤니티 기여를 통해 짧은 루프 GIF 애니메이션 생성 기능도 추가되었습니다. 또한, 아티스트가 자신의 스타일을 훈련 데이터에 "옵트인"할 수 있는 메타데이터 태그 기능이 도입되어, 창작자 권리를 더욱 존중하려는 시도가 반영되었습니다. 이 모델은 Stability AI가 생성형 AI 오픈 생태계의 선두 자리를 유지하도록 하며, 전 세계 수백만 명의 사용자와 개발자에게 향상된 창작 도구를 제공합니다.
2024년 11월 17일 - 전 Google 연구원 팀닛 게브루와 NYU의 게리 마커스를 포함한 12명 이상의 저명한 AI 학자 및 윤리학자들이 “AI 과장이 현실을 앞서고 있다”는 내용의 공개 서한을 발표했습니다. 이들은 인상적인 데모에도 불구하고 현재 AI는 진정한 이해력이 부족하며, 자율주행차나 인간 수준의 챗봇과 같은 약속된 돌파구가 조만간 실현되지 않으면 또 다른 ‘AI 겨울’이 올 수 있다고 경고했습니다. 이들은 AI 시스템의 한계에 대한 투명성을 높이고, 근본적인 공백을 해소할 수 있는 기초 AI 연구에 더 많은 자금 지원이 필요하다고 촉구했습니다. 이번 서한은 AI에 대한 투자 열기가 고조되는 가운데, 진전은 분명하지만 동시에 해결되지 않은 도전과 한계가 존재한다는 점을 상기시키는 역할을 했습니다.
2024년 11월 16일 - YouTube는 크리에이터들이 동영상을 자동으로 다국어로 더빙할 수 있도록 하는 AI 기반 도구를 도입했습니다. Google의 번역 및 음성 합성 기술을 활용해, 크리에이터는 하나의 영상을 업로드하면 스페인어나 힌디어 등으로 자신의 목소리를 모사한 더빙 영상도 생성할 수 있습니다. 초기 테스트에 따르면 완벽하진 않지만, 이 AI 더빙은 글로벌 청중에게 접근하는 장벽을 크게 낮춘 것으로 평가받고 있습니다. YouTube는 우선 일부 언어와 유명 크리에이터를 대상으로 시작하며, 향후 확대할 계획입니다. 이는 콘텐츠에서 언어 장벽을 허무는 AI 활용의 일환으로, 번역가와 성우들은 이 기술이 현지화 작업에 미칠 영향에 주목하고 있습니다.
2024년 11월 15일 - OpenAI는 GPT-4의 이미지 분석 기능을 ChatGPT Plus 사용자 전원에게 확장했습니다. 이제 전 세계 유료 사용자들은 사진을 업로드하여 GPT-4에게 설명을 요청하거나 질문을 할 수 있습니다. 예를 들어, 뉴스 기사에 있는 그래프를 보여주고 해석을 요구하거나, 고장 난 가전제품 부품 사진을 올려 수리 방법을 물을 수 있습니다. 제한된 베타 기간 이후 이루어진 이번 확장은 강력한 이미지 이해 능력을 일상 사용자에게 제공하게 되었으며, OpenAI는 악용 방지를 위해 사진 속 인물 식별은 하지 않는 등 보호 장치를 마련했습니다.
2024년 11월 14일 - YouTube는 연예인 기획사 CAA와 협력하여 유명인의 얼굴과 목소리를 AI가 모방한 콘텐츠를 관리·보호할 수 있는 새로운 도구를 도입했습니다. 이제 연예인들은 YouTube 시스템에 자신의 얼굴-음성 정보 지문을 등록할 수 있으며, 플랫폼은 AI를 이용해 이들을 모방한 영상이 업로드될 경우 자동으로 탐지하여 삭제하거나 라벨을 부착하게 됩니다. 이는 주요 콘텐츠 플랫폼 중 처음 도입된 기능으로, 배우 조합들의 우려에 대응한 조치이며, 팬 제작 AI 콘텐츠와 공인의 권리 보호 사이의 균형을 모색하는 모델로 평가받고 있습니다.
2024년 11월 13일 - 백악관은 지난 8월 DEF CON에서 진행된 대규모 AI 모델 적대 테스트(레드팀) 결과를 요약한 보고서를 발표했습니다. 이 보고서는 허용되지 않은 콘텐츠를 생성하도록 하는 프롬프트 공격이나, 모델이 훈련 데이터를 노출하는 사례 등 공통된 취약점을 지적했습니다. 이에 백악관은 AI 모델 개발을 위한 최선의 관행을 발표했으며, 주요 AI 기업들은 이 가이드라인을 채택하기로 합의했습니다. 이는 업계 표준을 향한 투명성 확대 조치로 긍정적 평가를 받았으나, 아직 자발적 이행이라는 한계도 존재합니다. 행정부는 이러한 관행을 향후 연방 기관이 사용하는 AI 조달 기준에 포함시키는 방안을 검토 중이며, 기업들이 이를 채택하도록 유도할 계획입니다.
2024년 11월 12일 - ChatGPT는 사용자의 허가 하에 대화 간 장기 문맥을 유지할 수 있는 기능을 새롭게 도입했습니다. “지속적 메모리(Persistent Memory)”로 명명된 이 기능은 ChatGPT가 사용자 선호, 이전 대화에서의 사실, 개인 정보를 주 단위 또는 월 단위로 기억함으로써 보다 개인화된 어시스턴트 경험을 제공합니다. 예를 들어, 이전 대화에서 언급한 반려견 이름이나 좋아하는 책 장르를 기억할 수 있습니다. 많은 사용자들은 이 편의성을 환영했지만, 프라이버시 옹호자들은 AI가 개인 데이터를 저장하는 것에 대해 우려를 표했고, OpenAI는 해당 데이터가 비공개로 유지되며 모델 훈련에 사용되지 않는다고 강조했습니다.
2024년 11월 11일 - 넷플릭스는 AI 기반의 개인화된 에피소드 요약 기능을 도입했습니다. 복잡한 시리즈를 오랜만에 다시 보는 시청자를 위해, AI가 사용자의 시청 이력을 바탕으로 주요 등장인물과 스토리라인 중심으로 맞춤형 요약을 제공합니다. 재시청 없이 기억을 되살릴 수 있도록 설계된 이 기능은 특히 스토리 중심의 드라마에서 유용하다는 평가를 받았습니다. 넷플릭스는 이 요약들이 스포일러나 오류를 피하기 위해 사람의 검토를 거쳤다고 밝혔습니다. 이는 추천 시스템을 넘어 사용자 경험을 향상시키기 위한 AI 활용의 좋은 사례입니다.
2024년 11월 10일 - 조지 R. R. 마틴과 마거릿 애트우드를 포함한 유명 작가들이 OpenAI를 상대로 새로운 저작권 침해 소송을 제기했습니다. 이들은 ChatGPT가 자신들의 소설을 모방한 요약 또는 텍스트를 생성할 수 있으며, 이는 그들이 작성한 저작물이 학습에 사용되었음을 암시한다고 주장했습니다. 작가들은 손해배상과 함께, OpenAI가 자신들의 작품을 훈련 데이터에서 제외하도록 법적 명령을 요구하고 있습니다. 이번 소송은 AI 학습 데이터와 관련된 법적 쟁점이 증가하는 가운데, 창작자 권리와 기술 혁신 간의 균형을 둘러싼 중요한 시험대가 될 수 있습니다.
2024년 11월 09일 - 15개국 연합이 OECD를 통해 “오픈 AI 훈련 데이터 풀”을 구축하겠다고 발표했습니다. 이 데이터 풀은 텍스트, 이미지, 번역 쌍 등 다양한 데이터를 포함하며, 품질과 편향 여부에 대해 사전 검토된 자료들로 구성됩니다. 이를 통해 저작권 문제 없이 스타트업과 학계 연구자들이 경쟁력 있는 AI 모델을 개발할 수 있도록 지원합니다. 캐나다, 이탈리아, 한국 등 주요 후원국은 이를 AI의 원재료를 민주화하고, 일부 대기업이 데이터 지배력을 독점하지 못하도록 하는 조치로 평가했습니다.
2024년 11월 08일 - AI 기술을 대거 활용한 독립 단편 영화 “Echoes of Aurora”가 LA 인디영화제에서 심사위원 특별상을 수상했습니다. 이 20분짜리 영화는 일부 시각적 장면 생성, 배우의 젊은 시절 재현, 음악 일부 생성에 AI를 활용했습니다. 영화제가 이 작품을 실험 부문으로 인정한 것은 AI 보조 예술이 창작 커뮤니티에서 점점 더 수용되고 있음을 보여줍니다. 제작진은 AI를 "제작 스태프의 일원"처럼 활용했다고 밝혔으며, 이번 수상은 영화 제작의 미래와 AI의 기여에 대한 논의를 촉발했습니다. 일부는 이를 영화의 민주화로, 일부는 AI 기여의 크레딧 문제로 평가하고 있습니다.
2024년 11월 07일 - GitHub는 GitHub Copilot for Business를 정식 출시하며, 기업 전체에서 사용할 수 있도록 했습니다. 이번 버전에는 API 키나 민감한 코드가 제안되는 것을 차단하는 기능이 포함되어 있으며, 이는 사전 미리보기 기간 동안 기업들이 제기한 주요 우려를 반영한 것입니다. 이제 더 많은 기업들이 AI를 활용해 대규모 코드 작성 및 리뷰 작업을 수행할 수 있게 되었으며, GitHub는 저작권 침해나 보안 이슈를 방지하기 위한 조치도 병행하고 있습니다.
2024년 11월 06일 - 런던 기반의 AI 윤리학자 팀닛 게브루 박사는 고급 언어 모델이 실제처럼 보이는 가짜 학술 논문을 생성할 수 있다는 연구 결과를 발표하며 경고했습니다. 그녀의 팀은 AI가 데이터, 인용문, 그래프까지 포함된 허위 논문을 생성할 수 있음을 시연했습니다. 이는 학계에서 AI가 학문적 사기 및 허위 정보를 확산시키는 데 악용될 수 있다는 우려를 불러일으켰습니다. 게브루 박사는 학술지에 AI 생성 텍스트 탐지 및 검증 기술을 도입하고, 워터마킹 등 신뢰성을 보장할 수 있는 기술 개발을 촉구했습니다.
2024년 11월 05일 - 유출된 유럽연합(EU)의 “AI 책임법(AI Liability Act)” 초안에 따르면, AI로 인해 피해를 입은 개인이나 기업이 보다 쉽게 소송을 제기할 수 있도록 법이 개정될 예정입니다. 제안된 내용에는 특정 경우 입증 책임을 AI 개발자에게 전가하는 “입증 책임 전환” 조항도 포함되어 있습니다. 이 법이 통과된다면 EU 내에서 AI에 대한 법적 책임 수준이 대폭 강화될 것이며, 기업은 자사 AI 도구의 위험성을 철저히 문서화하고 평가해야 합니다. 이는 글로벌 AI 책임 논의에도 영향을 미칠 수 있는 중요한 전환점이 될 수 있습니다.
2024년 11월 04일 - Anthropic은 영국 런던에 첫 해외 사무소를 열며 미국 외 지역으로의 확장을 시작했습니다. 이 새로운 영국 지사는 AI 안전 연구 및 정책 개발에 중점을 둘 예정이며, 런던의 AI 인재 풀과 주요 규제 기관과의 접근성을 활용할 계획입니다. 이는 OpenAI의 경쟁사인 Anthropic이 AI 연구개발의 글로벌화를 추진하고, 유럽식 AI 거버넌스 접근 방식과의 접점을 확대하려는 시도로 해석됩니다. 영국 정부는 이번 진출을 과학기술 투자 확대 이후 영국이 글로벌 AI 허브로 자리매김하려는 목표의 긍정적인 신호로 환영했습니다.
2024년 11월 03일 - 일본 국회는 ‘AI 촉진법’을 통과시켜, 국가 AI 전략위원회 설립과 함께 보건의료, 교통 등 분야에서 AI를 테스트할 수 있는 규제 샌드박스를 도입하기로 했습니다. 이 법은 정부 기관이 공공 서비스 개선을 위해 AI를 적극 도입하도록 장려하는 조항도 포함하고 있습니다. 이를 통해 일본은 규제에 그치지 않고 자국 내 AI 혁신을 적극 촉진하겠다는 의지를 표명했으며, 특히 로봇 분야에서의 경쟁력을 유지하면서 인간 중심 및 윤리 기술 개발이라는 문화적 가치를 균형 있게 추구하려는 접근을 취하고 있습니다.
2024년 11월 02일 - OpenAI는 개발자를 대상으로 API를 통해 “GPT-4 Turbo”의 베타 버전을 출시했습니다. 이 모델은 기존 GPT-4 대비 2배 빠른 속도와 64k 토큰 컨텍스트 지원을 제공하며, 초기 사용자들은 응답 속도 향상과 긴 대화에서의 비용 절감을 보고했습니다. OpenAI는 보다 효율적인 모델 제공을 통해 GPT-4 기능을 더 많은 기업 애플리케이션 및 서비스에 통합하도록 유도하고, 지연 시간에 대한 기존 불만을 해결하며 대규모 AI 사용을 보다 실용적으로 만들고자 합니다.
2024년 11월 01일 - 미국 국방부는 예측 정비, 전장 분석, 군수 시스템 분야에서 AI를 배치하기 위한 차세대 인공지능 센터(JAIC) 프로젝트의 일환으로 Palantir, Microsoft 등 여러 기술 기업에 총 3억 달러 이상의 계약을 체결했습니다. 이 계약은 군 전반에 걸친 AI 시스템 도입을 가속화할 예정입니다. 이는 미 국방부가 AI를 통해 전술 및 전략적 우위를 유지하려는 의지를 보여주는 동시에, 군사용 AI의 신뢰성 및 윤리성 검증 문제에 대한 논의도 불러일으키고 있습니다.
2024년 10월 31일 - 할로윈 밤, ChatGPT는 기록적인 사용량으로 인해 OpenAI의 서버가 과부하되어 수 시간에 걸친 글로벌 접속 장애를 겪었습니다. 수백만 명의 사용자가 오류 메시지와 느린 응답을 경험했고, 이 사건은 “AI 종말” 밈으로 번지기도 했습니다. OpenAI는 중단 사실을 인정하며, 인프라 업그레이드와 이중화 시스템 강화를 가속화하겠다고 밝혔습니다. 이번 장애는 ChatGPT 사용자 기반의 방대한 규모를 보여줌과 동시에, AI가 보편화되면서 안정적 서비스를 유지하는 데 따르는 도전과제를 상기시켰습니다.
2024년 10월 30일 - OpenAI는 ChatGPT에 실시간 웹 검색 기능을 통합했습니다(Microsoft의 Bing 검색 백엔드를 기반으로 함). 이를 통해 챗봇은 최신 정보를 검색하고 사용자 질문에 뉴스나 현재 소스를 인용하여 응답할 수 있게 되었습니다. 이 기능은 유료 사용자에게 먼저 제공된 후 전체 사용자에게 확대되며, ChatGPT를 하이브리드 검색 엔진이자 대화형 어시스턴트로 진화시켰습니다. 이는 Google과의 경쟁을 심화시키는 한편, AI가 최신 정보를 실시간으로 제공함으로써 정보 탐색 방식에 중요한 변화를 예고합니다.
2024년 10월 29일 - OpenAI는 자체 AI 칩 개발 계획을 발표하고, Broadcom과 함께 칩 설계 및 생산을 논의 중이라고 밝혔습니다. 이 계획은 GPU 부족과 고비용 문제를 해결하기 위한 전략적 조치로, OpenAI는 2026년까지 독자적인 추론 가속기를 생산하는 것을 목표로 하고 있습니다. Google, Amazon처럼 자체 AI 반도체를 개발하는 대열에 합류함으로써, 하드웨어 공급에 대한 통제력을 확보하고 장기적인 비용 절감 및 모델 최적화를 추구하려는 것입니다. 그러나 전문 하드웨어 팀 구축이라는 큰 도전과 비용이 수반됩니다.
2024년 10월 28일 - Meta가 Google과 Bing에 대항할 AI 기반 검색 엔진을 개발 중이라는 보도가 나왔습니다. 이 엔진은 Facebook과 Instagram 데이터를 활용해 검색 결과를 개인화할 수 있으며, 대화형 AI를 통해 질문에 응답하고, 소셜 네트워크 맥락(예: 친구의 추천)을 반영하는 기능도 탑재될 것으로 알려졌습니다. 출시될 경우, 이 제품은 소셜미디어 기반의 새로운 AI 검색 대안을 제시하며 검색 시장에 새 경쟁을 촉발시킬 수 있습니다. 이는 생성형 AI의 발전으로 인해 오랜 기간 Google이 독점해온 검색 시장에 새로운 도전자가 진입할 수 있게 되었음을 보여줍니다.
2024년 10월 27일 - OpenAI가 전 Apple 수석 디자이너 조니 아이브와 소프트뱅크와 협력하여 새로운 AI 중심 하드웨어 기기를 개발 중이라는 보도가 나왔습니다. 세부 정보는 비공개지만, 관계자들은 이 기기를 자연어 음성 및 센서 통합 기능을 갖춘 “AI 동반자”로 묘사하고 있습니다. 소프트뱅크 손정의 회장이 10억 달러 이상을 투자할 가능성도 제기되고 있으며, 이 기기는 AI를 중심으로 한 스마트폰 대체 형태의 개인 디지털 기기를 새롭게 정의할 수 있다는 기대를 모으고 있습니다.
2024년 10월 26일 - 약 30개국의 정부 대표와 기술 기업 리더들이 런던에서 열린 제1회 AI 안전 정상회의에 참석해, 고도화된 AI가 존재론적 위협이 될 수 있음을 인정하고 AI 정렬 및 안전 연구를 위한 협력에 합의하는 공동 성명을 발표했습니다. 비구속적이긴 하지만, 이 성명은 초지능 AI가 글로벌 위협이 될 수 있음을 국제적으로 공식 인정한 첫 사례로 기록됩니다. 참석국들은 연례 회의를 개최하고, 최신 AI 발전 정보를 공유하기 위한 국제 기구 설립도 논의했으며, 이는 핵 안전 분야에서의 국제 협력 모델과 유사한 방식입니다.
2024년 10월 25일 - Meta는 AI 모델 학습을 위해 Reuters와 뉴스 콘텐츠 라이선스 계약을 체결했습니다. 이는 주요 기술 기업이 뉴스 통신사에 데이터를 사용한 대가를 지불한 첫 사례입니다. 이번 계약으로 Meta의 생성형 AI(예: 신규 챗봇 어시스턴트)는 Reuters 제공 정보를 활용해 최신 사건에 대한 정확한 응답을 제공할 수 있으며, 잘못된 정보를 유포할 위험도 줄일 수 있게 되었습니다. 이 파트너십은 AI 개발과 저널리즘의 연결 고리로 평가되며, 향후 더 많은 AI 기업과 콘텐츠 제공업체 간의 협약으로 이어질 가능성이 있습니다.
2024년 10월 24일 - 바이든 대통령은 미국의 AI 리더십을 확보하고 AI 관련 위협에 대응하기 위한 전략을 담은 국가안보각서를 발행했습니다. 해당 메모는 연방 기관에 AI를 연구개발(R&D) 예산의 우선순위로 삼고, AI 시스템을 사이버 공격으로부터 보호하기 위한 기준 마련, 동맹국들과의 군사용 AI 규범 수립을 지시하고 있습니다. 또한 AI 칩과 같은 핵심 분야에서 미국의 기술 우위를 유지하는 중요성도 강조했습니다. 이번 조치는 고급 AI 기술을 핵무기나 우주기술과 동급의 전략 자산으로 간주하고, 정부 차원의 통합 관리와 보호가 필요하다는 인식을 반영한 것입니다.
2024년 10월 23일 - Google은 AI로 생성된 텍스트 콘텐츠에 보이지 않는 워터마크를 삽입해 추후 식별할 수 있도록 하는 도구 “SynthID Text”를 출시했습니다. 이는 이전 이미지 워터마킹 기술의 확장판입니다. 전문가들은 향후 몇 년 내 웹 콘텐츠의 대부분이 AI 생성물이 될 것으로 전망하고 있으며, Google의 이번 조치는 콘텐츠 출처를 추적하고 신뢰성을 유지하려는 선제적 대응입니다. 또한, Google은 AI로 제작된 정치 광고에 의무적인 고지사항을 포함시키도록 하는 미 의회 초당적 법안도 지지하고 있으며, AI 콘텐츠의 진위 문제 해결의 시급성을 반영하고 있습니다.
2024년 10월 22일 - 음악 프로듀서 팀발랜드는 AI 음악 스타트업 Suno와 협력해 전설적인 아티스트의 목소리를 모방한 AI 보컬로 곡을 제작했습니다. 특히 AI로 재현한 The Notorious B.I.G.의 목소리를 사용한 데모 영상은 큰 화제를 모았습니다. 이 협업은 새로운 창작 가능성에 대한 기대와 동시에, 아티스트의 동의 없이 목소리를 되살리는 데 대한 윤리적 논란도 불러일으켰습니다. 음악 산업은 AI가 생성한 퍼포먼스를 어떻게 다룰지에 대해 본격적인 논의를 시작하게 되었습니다.
2024년 10월 21일 - The Wall Street Journal을 소유한 News Corp의 Dow Jones 부문은 AI 스타트업 Perplexity.ai를 상대로 저작권 소송을 제기했습니다. 이 소송은 해당 AI 서비스가 뉴스 기사를 라이선스 없이 요약하고, 때로는 유료 구독 전용 콘텐츠에서 직접 인용한 내용을 포함하고 있다고 주장합니다. 이는 언론사가 자사의 콘텐츠 가치를 보호하기 위해 단호한 태도를 취하고 있으며, AI 기업이 장기 소송을 피하기 위해 콘텐츠 라이선스 협상에 나설 수밖에 없음을 보여주는 사례입니다.
2024년 10월 20일 - IBM은 기업용으로 최적화된 오픈소스 대형 언어 모델 “Granite 3.0”을 발표했습니다. Granite 3.0은 자체 서버에 설치할 수 있으며, 법률 문서 작성, 재무 보고서 분석, 산업별 질의 응답 등 업무 중심 작업에 맞게 세밀하게 조정되었습니다. IBM은 이를 경쟁사들의 블랙박스형 AI 모델과 달리, 구조와 훈련 데이터가 모두 감사 가능하다는 점에서 기업에게 투명성과 제어 권한을 제공하는 “게임 체인저”로 소개하고 있습니다.
2024년 10월 19일 - 유엔 자문 보고서에 따르면 2026년까지 온라인 콘텐츠의 최대 90%가 AI에 의해 생성 또는 수정될 수 있으며, 여기에는 텍스트, 이미지, 비디오가 포함됩니다. 보고서는 이에 대응하기 위해 워터마킹, 콘텐츠 출처 추적 기술을 즉시 도입해야 한다고 촉구했습니다. 그렇지 않으면 정보에 대한 신뢰가 위기를 맞고, 허위 정보와 진짜 콘텐츠를 구분하는 것이 거의 불가능해질 것이라고 경고했습니다.
2024년 10월 18일 - 오픈소스 커뮤니티가 “Atlas 70B”라는 700억 파라미터 규모의 다국어 AI 모델을 공개했습니다. 이 모델은 많은 작업에서 GPT-4와 같은 상용 모델에 필적하는 성능을 보인다고 주장되고 있으며, 누구나 무료로 사용하거나 커스터마이징할 수 있습니다. Atlas 70B의 등장은 오픈 AI 커뮤니티의 중대한 이정표이며, 공공 협업이 대형 기술 기업에 맞설 수 있을 정도의 고성능 모델을 빠르게 만들어낼 수 있음을 보여주는 사례입니다.
2024년 10월 17일 - OpenAI는 AI 모델의 정확성, 편향, 추론 능력 등을 평가할 수 있도록 돕는 도구 “OpenAI Eval”과 테스트 프롬프트 데이터셋을 오픈소스로 공개했습니다. OpenAI는 연구자들이 자사 모델을 포함한 AI 시스템의 약점을 식별하고 개선 방안을 제안할 수 있도록 이 도구를 활용해 달라고 요청했습니다. 이 같은 크라우드소싱 기반의 평가 방식은 투명성과 안전성 향상을 위한 OpenAI의 노력의 일환이며, 다양한 외부 의견이 AI 시스템 개선에 매우 유용하다는 점을 인정하는 조치입니다.
2024년 10월 16일 - 프랑스 AI 스타트업 Mistral AI는 “Ministral” 3B 및 8B라는 새로운 오픈소스 언어 모델을 공개했습니다. 이 모델들은 스마트폰이나 IoT 같은 엣지 디바이스용으로 최적화되었으며, 소형임에도 불구하고 언어 처리 능력이 뛰어나고 128k 토큰 컨텍스트를 지원하면서도 추론 속도가 매우 빠릅니다. 이 개발은 강력한 AI를 로컬에서 실행할 수 있도록 함으로써 프라이버시와 접근성을 개선하고, 클라우드 연결 없이도 AI 기능을 제공할 수 있는 산업 대안을 제시합니다.
2024년 10월 15일 - Google은 AI 데이터 센터에 소형 모듈형 원자로(SMR)를 통해 전력을 공급하기 위해 원자력 스타트업 Kairos Power와 세계 최초의 계약을 체결했습니다. 이 협약은 2030년까지 24시간 탄소 중립 전력을 Google에 제공하게 되며, AI 슈퍼컴퓨팅의 막대한 에너지 수요를 해결하기 위한 새로운 에너지 전략으로 평가받고 있습니다. 이번 사례는 기술 기업들이 지속가능성을 확보하면서 AI 수요를 충족시키기 위해 첨단 원자력 기술을 모색하고 있음을 보여줍니다.
2024년 10월 14일 - NVIDIA는 AI 칩 수요 급증에 힘입어 사상 최고 실적을 발표한 뒤 주가가 사상 최고치를 기록했습니다. 투자자들은 AI 모델 학습 및 배포의 기하급수적 성장세에 주목하며, NVIDIA의 시가총액은 1조 달러를 돌파했습니다. 이 이정표는 AI 혁명에서 NVIDIA의 GPU가 얼마나 중심적인 역할을 하는지를 보여주며, AI에 대한 낙관적인 시장 전망이 주요 기업의 주가에 미치는 영향을 나타냅니다.
2024년 10월 13일 - 뉴욕타임스는 OpenAI와 Meta를 포함한 여러 AI 기업에 자사 콘텐츠를 허가 없이 학습에 사용하지 말라는 ‘중단 요구서’를 발송했습니다. 이 서한은 이들 기업이 자사의 저널리즘을 AI 제품에 무단 활용함으로써 저작권을 침해하고 부당한 이익을 얻고 있다고 주장합니다. 미국의 대표 언론사가 이러한 강경한 입장을 취함에 따라, AI 기업의 학습 데이터 소싱 방식에 대한 법적 논쟁이 본격화될 가능성이 커졌습니다.
2024년 10월 12일 - 화웨이는 향상된 온디바이스 AI 처리 기능을 갖춘 새로운 스마트폰용 칩셋을 발표했습니다. 이 칩셋은 실시간 번역, 이미지 인식 등 고급 AI 기능을 클라우드 연결 없이 기기 내에서 실행할 수 있게 합니다. 미국의 제재가 계속되는 가운데 이 기술은 중국이 AI용 반도체 기술을 자립적으로 발전시키려는 의지를 보여주며, 첨단 제조 기술의 제약에도 불구하고 기술 주권을 확보하려는 노력을 강조합니다.
2024년 10월 11일 - 인터폴은 다크웹에서의 불법 활동을 추적하고 식별할 수 있는 AI 시스템을 도입한다고 발표했습니다. 이 도구는 암호화된 채팅 기록, 마켓플레이스, 이미지 등을 분석하여 인신매매 조직이나 무기 밀매 같은 의심 사례를 수사관에게 알리는 머신러닝 기술을 사용합니다. 이는 범죄자들이 기술을 활용하는 속도에 맞추어 법 집행 기관도 AI를 활용하고 있다는 점을 보여주며, 인터폴은 AI 결과에 대한 인간 수사관의 검토를 통해 오류를 방지한다고 밝혔습니다.
2024년 10월 10일 - Microsoft는 Windows 11에 자사 Copilot AI 어시스턴트를 시스템 전반에 통합하는 대규모 업데이트를 배포했습니다. 이제 사용자는 자연어로 Copilot에게 여러 앱을 넘나드는 복잡한 작업(예: 설정 변경, 문서 요약, 사진 정리 등)을 요청할 수 있습니다. 이 업데이트는 PC 인터페이스를 사실상 AI와의 대화로 전환시키며, 그래픽 사용자 인터페이스 도입 이후 Windows 사용자 경험의 가장 큰 변화 중 하나로 평가됩니다.
2024년 10월 09일 - 연구진은 존재하지 않는 G7 국가 정상의 정책 연설을 담은 AI 딥페이크 영상을 시연하며, 정치 콘텐츠에 대한 AI 위조 기술의 정교함을 경고했습니다. 해당 영상은 실제 방송과 거의 구분되지 않을 정도로 정밀했으며, 다가오는 선거를 앞두고 정부와 소셜미디어 기업들이 딥페이크 탐지 및 진위 확인 기술 개발을 서두르도록 촉구하는 계기가 되었습니다.
2024년 10월 08일 - 넷플릭스는 AI로 생성한 배경과 중간 프레임을 사용한 애니메이션 단편 영화를 공개했습니다. 인력 부족으로 인한 실험적 시도로, 캐릭터는 손으로 그렸으나 배경과 일부 애니메이션 처리는 AI를 활용했습니다. 이에 대해 일부는 인간과 AI 예술의 혁신적 결합이라며 호평했지만, 많은 예술가와 팬들은 인간 창작자들이 배제될 수 있다는 우려를 표하며, 엔터테인먼트 콘텐츠에 AI 활용 여부를 명확히 표기할 것을 요구했습니다.
2024년 10월 07일 - IBM과 NASA는 기후 과학을 위한 특화 AI 모델 개발을 위해 협력한다고 발표했습니다. 양측은 수십 년 간의 지구 관측 데이터를 AI에 학습시켜, 극한 기상 현상과 기후 패턴을 보다 정확하게 예측할 수 있도록 할 계획입니다. 이번 협력은 NASA의 풍부한 환경 데이터와 IBM의 AI 기술을 결합한 사례로, AI 기반 통찰을 통해 기후 변화 같은 글로벌 과제를 해결하는 공공-민간 파트너십의 모델로 주목받고 있습니다.
2024년 10월 06일 - 인텔은 대형 AI 모델 학습 효율을 높이기 위한 차세대 칩인 Gaudi3 AI 가속기를 공개했습니다. Meta가 이 칩의 주요 고객이 될 예정이며, 자사 데이터 센터에서 GPU와 함께 Gaudi3를 사용할 계획입니다. 이는 인텔이 AI 칩 시장에서 입지를 넓히는 데 중요한 성과로 평가되며, 대형 AI 기업들이 Nvidia에 대한 의존도를 줄이기 위해 하드웨어 다변화를 모색하고 있음을 보여줍니다.
2024년 10월 05일 - 헐리우드 배우 조합 SAG-AFTRA는 AI 관련 보호 조항이 포함된 역사적인 계약을 체결하며 파업을 종료했습니다. 이번 합의로 스튜디오는 디지털 복제본 사용 시 배우의 동의를 얻고 보상을 지급해야 하며, AI를 이용한 연기 변경도 제한됩니다. 수개월 간의 노동 중단 끝에 이뤄진 이번 합의는 AI 시대의 노동권 보장이라는 상징적인 사건으로 평가되며, 인간 배우가 영화 제작의 중심에 남도록 보호하는 장치를 마련했습니다.
2024년 10월 04일 - Google과 옥스퍼드 대학 연구팀은 AI 시스템 “DeepMath”가 순수 수학의 여러 추측을 자율적으로 증명하고 새로운 정리를 제안했다는 논문을 Nature에 발표했습니다. 수학자들은 AI가 이제 추상 수학 분야에 의미 있는 기여를 할 수 있게 된 점에 놀라움을 표했지만, AI가 때때로 “인간다운” 방식이 아닌 방식으로 정답을 제시한다는 점에서 이해와 해결의 차이에 대한 철학적 논의를 불러일으켰습니다.
2024년 10월 03일 - 영국 경쟁시장청(CMA)은 기초 모델에 대한 보고서를 발표하며, 클라우드 컴퓨팅과 독점 모델 분야에서 대형 기술 기업들의 지배력이 경쟁과 소비자에 해를 끼칠 수 있다고 경고했습니다. CMA는 구체적인 규제를 권고하지는 않았지만, 지속적인 감시와 상호운용성 기준 도입 같은 개입 가능성을 언급했습니다. 이는 AI 산업 집중화에 대한 규제 당국의 신중한 접근을 보여줍니다.
2024년 10월 02일 - OpenAI는 두 번째 연례 DevDay 컨퍼런스에서 개발자를 위한 신기능을 공개했습니다. 여기에는 ChatGPT가 데이터베이스 조회, 홈 오토메이션 등 맞춤형 작업을 수행할 수 있도록 하는 AI “플러그인” 시스템의 초기 버전도 포함되었습니다. 또한 OpenAI는 차세대 모델(GPT-5로 알려진)의 개발이 진행 중임을 암시하며, 보다 신뢰성 있는 추론 능력에 집중하고 있다고 밝혔습니다. 이는 개발자와 투자자에게 OpenAI가 계속해서 혁신을 이어가고 있음을 보여주는 신호입니다.
2024년 10월 01일 - NVIDIA는 이미지와 텍스트를 모두 처리할 수 있는 대형 오픈소스 AI 모델 “NVLM 1.0”을 공개했습니다. 이 모델은 이미지를 설명하거나 복잡한 질문에 답하며, 시각 장면에 대한 캡션 또는 대화 생성도 가능합니다. NVLM 1.0은 NVIDIA가 단순 하드웨어를 넘어 고성능 AI 모델 공급자로 나아가는 과감한 행보로, 오픈소스 AI 커뮤니티에 새로운 파운데이션 모델을 제공하며 에너지를 불어넣고 있습니다.