top of page

그냥 써본 에이아이 생각들

정리된 건 아니고, 그냥 에이아이에 대해 남들이 말한 것들이나 생각난 것들 적어 놓았습니다. 언젠가는 인사이트를 얻으리라는 생각을 하며^^

2025년 06월 30일 : AI 연구 현황 분석을 위해 데이터 수집과 공유, 협력 연구 필요성. AI 기반 리뷰어 사용이 늘면서 연구 윤리와 공정성 논란이 커지고 있다. GPU 확충, 국산 NPU 개발 등 정부의 AI 집중 투자와 독자 기술 확보 노력.

2025년 06월 29일 : AI 개발 성과는 기술만이 아니라 이를 이끄는 리더십과 팀 역량이 크게 좌우된다. 단합되는 팀은 지속적 성과를 내고, 분열된 팀은 실패한다. AI 시대에 기술뿐 아니라 팀 관리·리더십 역량을 기르는 교육의 필요성.

2025년 06월 28일 : 자체 AI 모델 개발은 필요하다는 인식이 강하지만, 현실적 성공 가능성과 예산 효율성에 대한 우려가 여전히 큼.  단순한 기술 개발에 그치지 않고, 시장성과 사용자 활용도를 고려한 실용적 AI 연구가 중요하다. AI 국책과제는 결과물 공개, 실증 기회 제공, 참여기관의 실질적 기여를 확보하는 투명하고 공정한 구조가 필요하다.

2025년 06월 27일 : 소버린 AI 개발의 당위성은 공감되지만, 현실성 있는 전략과 명확한 목표, 구체적 설득 논리가 부족하다. AI가 LLM과 챗봇 중심으로 오해되고 있으며, 다양한 AI 분야(컴퓨터 비전, 로보틱스 등)에 대한 대중과 정책 담당자의 이해 확대와 교육 필요성. DGX Spark 같은 소형 AI 기기의 등장으로 개발자와 연구자들의 AI 실험과 접근성이 높아지고 있다

2025년 06월 26일 : 로봇과 새로운 형태의 AI에 대응하기 위해 거대 AI와 다른 접근의 뉴로모픽 AI 기초 연구와 실험이 활발히 필요하다. AI 서비스들의 데이터 활용이 공정이용으로 인정되는 판결이 나오고 있지만, 동시에 음악·이미지 생성 AI 등 주요 서비스들이 저작권 소송에 직면. AI 국가 지원 정책은 무분별한 예산 투입보다 '왜, 무엇, 어떻게'를 분명히 하여 공공성과 실효성을 먼저 고민해야 한다

2025년 06월 25일 : AI 정책과 예산 집행은 막연한 지원이 아니라 목적과 방법이 명확해야 하며, 필요성과 범위가 구체화된 뒤 국가가 나서는 것이 타당. AI도 과거 유비쿼터스, 빅데이터, 메타버스처럼 개념이 불명확한 채 예산만 투입되면 실패 가능성이 높다. Text Embedding 논문 리뷰 세미나처럼 기초 기술에 대한 집단 학습과 이해 공유가 AI 발전에 중요하다.

2025년 06월 24일 : AI 국가 예산은 특정 기업에 유리하게 흐르지 않도록 철저히 국가 전략용에 집중하고, 사용 내역을 국민에게 공개해야 한다. AI 기술 자체를 개발하는 기업 지원과 단순히 AI를 활용하는 기업 지원은 구분되어야 하며, 무분별한 지원은 문제가 될 수 있다. AI 정책도 드론처럼 단순 규제 완화에만 집중하다 실패할 수 있으므로, 적절한 진입 장벽과 선택적 예산 투입이 필요하다.

2025년 06월 23일 : 클로드는 코딩 지원에는 강하지만 일반 추론과 대화에서는 반복적이고 단순한 답변을 내놓는다. AI 발전으로 인해 기존 교육 시스템이 인간을 창의적 사고보다 규격화된 작업 수행자로 훈련시켰다는 한계를 드러냄. AI가 데이터센터 에너지 효율화, 기후변화 대응, 전력망 관리 등 에너지 분야와 결합하는 연구·정책 사례가 늘어나고 있음.

2025년 06월 22일 : P사용자들은 최신 AI 언어모델(Gemini 2.5, Perplexity)이 가장 만족도가 높다고 평가하며, ChatGPT는 다소 애매. AI 인재 부족 문제는 단순히 교육이 아닌, 현업에서 주니어를 코칭하고 활용할 중견 전문가와 산업 구조의 한계에서 비롯됨. AI 데이터센터의 냉각 효율과 에너지 믹스(원자력+재생+천연가스), 그리고 RE100, CFE 24/7, 넷제로 개념을 조합한 지속가능 AI 인프라 구축이 주요 과제

2025년 06월 21일 : 미국 국방부가 오픈AI 등 빅테크와 협력하며 AI 군사 기술 개발에 적극적. LLM과 VLM이 아날로그 시계나 게이지를 정확히 읽지 못하는 문제와 이를 해결하려는 시도. 애플이 Perplexity AI 인수를 검토하는 등 자본으로 AI 기술과 인재를 확보하려는 움직임이 포착됨.

2025년 06월 20일 :AI 도구를 쓰는 사람은 게으르고 쉽게 교체될 수 있다고 평가될 위험이 있다는 연구. 대규모 LLM 경쟁보다 국내 제조업 특화 AI와 새로운 접근법에 집중

2025년 06월 19일 : AI R&D를 단기 경쟁 형태로 소비하는 경향이 연구의 본질을 훼손할 수 있다는 우려. GPT 기반 AI가 긴 대화에서 초기 세팅이나 맥락을 점점 덜 참고하는 현상이 문제.

2025년 06월 18일 : 기존 LLM의 순차적(waterfall) 생성과 달리 DLM은 애자일처럼 병렬적 접근으로 자연어 처리의 새로운 가능성을 탐색 중이며, 속도·품질 균형이 핵심 논점임. 속도와 유행에 휘둘리기보다 목표와 방향에 맞는 AI 기술을 선택하고 활용하는 주체적 접근이 중요

2025년 06월 17일 : 기존 모션체어나 감시 장비에 AI를 결합해 '스마트화'하고 인간 중심의 인터랙션을 강화하려는 시도가 활발. AI 기술의 자동화 가능성과 근로자들의 자동화 수용 희망 간 간극이 존재, 현장 맞춤형 AI 도입 전략 필요.

2025년 06월 16일 : Perplexity, Dia 등 AI 기반 브라우저가 통합 검색·생성·분석 기능을 강화하며, 멀티 AI 플랫폼 활용을 일상화하고 있음. 고가치 공공데이터 개방과 AI 국방 응용 논의는 국가 주권형 AI 역량 확보와 전략적 자립의 필요성을 부각시킴.

2025년 6월 15일: 반도체, 조선 정도를 제외하고는 중국의 공장들에 있는 제조 장비가 국내 공장 장비보다 압도적으로 좋다고 합니다. 글로벌 대기업들이 요구하는 생산 장비를 갖추다 보니 제조된 부품 뿐 아니라, 제조 장비까지 생산 능력과 효율에서 우리가 이제는 따라 갈 수 없는 수준이 되었다고 합니다. 인건비가 싸서 싼 것이 아니라 생산 효율에서 이미 우리 나라를 압도한다고...세종시에 BYD 시내버스가 다닙니다...

2025년 6월 14일: 퍼플렉시티가 자체 브라우저 Comet발표
AI + 국방의 전략적 중요성
AI 기술이 무기화 단계로 진입하는 시점에 도달했으며, 특히 자국 LLM 보유 여부가 국방·외교 협상력의 중요한 요소로 부각됨.
외산 AI(특히 오픈모델)는 기술 유출, 무기화 전용 방지 등의 이유로 차단될 가능성이 크며, 자체 AI 개발 역량 확보가 핵심 과제로 인식됨.
군사 AI는 단순 LLM이 아닌, 상황탐지, 정보통합, 지휘결심 보조 등 다양한 계층적 응용으로 세분화되어 접근해야 함.
드론 + AI, 전장의 판도를 바꾸는 기술
드론의 감시·공격·방어 기능 강화와 AI 결합이 실질적 위협 및 기회 요소로 자리 잡음.
러시아의 고등학교 군사 드론 교육 사례는 조기 군사 AI 리터러시 교육의 필요성을 시사.
우리나라의 e스포츠·게임 문화가 아이러니하게도 미래 전장 적응력 측면에서 잠재적 강점으로 예상.

2025년 6월 13일: 애플이 연결성과 디자인 중심의 정체성에 머무르는 것이 혁신을 지연시킬지, 아니면 본연의 강점을 유지하는 전략적 선택일지/  "AI 주도권 상실 시 애플의 미래에 위기"를 경고, 또는 "애플은 원석을 가공하고 연결해 사용자 경험을 최적화하는 데 강점"? AI 경쟁에서 독자노선을 고수할지, 협력과 흡수 전략으로 선회할지가 주요 변곡점. **AI + 오픈소스 모델(DeepSeek, Llama)**은 빠르게 상용화되고 확산되는 반면, 애플처럼 폐쇄적/독자적 접근은 시장 리스크로 평가됨. 특히 삼성전자, 병원 등 대기업과 기관에서 보안 문제로 AI 도입이 지연되고, 국산 클라우드/온프레미스 LLM 활용이 부상. AI를 단순 도입이 아니라 산업별 규제·보안·생태계 적합성까지 고려한 전략적 접근이 필요. 유튜브, SNS에서 생성 AI 기반 쇼츠가 폭증하며 ‘AI 슬롭(저급 영상)’ 문제 대두. AI 기반 논문 작성·코드 생성이 연구자 졸업 시간, 품질, 연구생태계에 미치는 영향이 관심사로 부상. PromptPilot 같은 도구로 프롬프트 보조 UX가 발전하며, AI 사용은 점점 더 보편화되고, 편향과 품질 문제는 새로운 숙제가 됨.
AI를 단순 기능이 아닌 전략적 자산으로 인식
애플·삼성·구글·MS 등의 AI 전략 차별화를 모니터링하며 내 조직/서비스의 AI 도입 시 전략적 포지셔닝을 고민.
단순한 AI 도입이 아니라 **“AI + 나의 강점/브랜드”**를 만드는 관점을 갖기.
AI 도구의 ROI 모니터링 및 최적화
개인/조직의 AI 활용 가치를 주기적으로 점검 (예: 월간 AI ROI 리포트, KPI화)
과대 혹은 과소 평가되지 않도록 실제 성과 기반 AI 활용 가치를 정량화.
AI 활용 역량을 팀 차원에서 강화
단순 사용을 넘어서 PromptPilot, Claude Code, Skywork 등 고급 도구를 팀 학습.
AI를 함께 쓰며 비판적 사고 + 창의적 기획을 융합하는 하이브리드 역량 강화.

2025년 6월 12일: 대화 내용, 질문과 답변의 깊이를 기반으로 추정한 ChatGPT 주 활용 영역: 
🔹 고급 지식 탐색 및 정리
(AI, LLM, 클라우드, 보안, 연구 논문, 정책 등)
🔹 기획 아이디어 생성 및 디스커션
(AI 전략, R&D 기획, 사업화 아이디어, 학회 준비)
🔹 코드 작성, 시뮬레이션, 분석 보조
(Claude code, 유한차분 해석, 논문 자동화)
🔹 대화 기반 브레인스토밍
(수제/AI 가치 논의, 직무/역할 설계 논의)
AI 활용 범위를 명문화
**“내가 AI에게 시켜야 할 업무”**를 리스트업 (예: 요약, 초안, 코드검증, 보고서 프레임, ROI 분석)/ 월말에 AI 활용내역과 성과를 짧게 리뷰 → 가치 체감도와 실제 ROI 갭을 파악
AI + 자동화 + 보안 친화
n8n, Zapier, Cursor + LLM, 온프레미스 LLM 조합 등으로 업무 파이프라인화
민감 업무는 국산 클라우드 기반 LLM + 내부 코드 리뷰 조합을 설계
학습형 AI 파트너화
단순 답변 → 대화 이력 기반 장기적 설계, 프로젝트 동반자로 활용
각 주요 질문/답변을 Notion, Obsidian 등에 아카이브 → 지식 레이어 쌓기

2025년 6월 11일: Claude Code와 LLM을 활용한 시뮬레이션 사례로, AI 도구가 전문 물리 시뮬레이션 업무까지 지원 가능함/ AI 기반 시뮬레이션 툴을 연구원 내 전직원에게 제공하는 방법 논의 → AI 생산성 도구의 조직 내 확산 전략 필요성/ OpenAI의 o3 pro 모델이 출시되며 o3 가격은 80% 인하, 그러나 pro는 요금이 높아 체험/확산 장벽/ Mistral Magistral (추론모델) 발표되었으나 파급력은 미미.(이유: 오픈 레시피, 후발주자 진입 장벽 낮아짐, 차별화 어려움.) 코드/AI는 효율성이 중시되므로 ‘수제’가 경쟁력 되기 어려움, 반면 요리·디자인 등 감성이 중요한 분야는 여전히 수제 가치 존재. AI의 본질과 오용 리스크를 이해하고, 데이터·주권·팩트체크 구조적 설계 필요.텔레그램 봇 제작 (BotFather + n8n) , AI 도구로 논문 데이터, 저자 정보 처리, 코드 자동화 지속 탐구.

2025년 6월 10일: 자기진화 LLM + Claude Code + Ironman Arc Reactor 시뮬레이터/ LLM 단독보다는 규칙 기반 + LLM 보조 방식이 실제 데이터 품질에 강인. 한국어 데이터는 특히 규칙·주소 DB 연동이 성능 향상 핵심. AI 사용 전제의 코딩 교육, 평가 방식의 재설계 필요. AI 의존 시대의 “문제 설계력”이 핵심 역량이 됨. AI 문장 생성의 품질은 데이터 학습 폭 + 감성 프롬프트 공학의 결합에 달림. 인간 문장의 “맥락과 상징성”은 여전히 AI가 쉽게 모방 못함. Claude Code, Sonnet vs Opus, Gemini, Deep Research 도구별 성능/제약 비교.  Citation 기반 논문 필터링 불가 (구글 스칼라 등 DB 특성상), AI 논문 찾기 실전 팁 공유. 

2025년 6월 09일: Sakana AI의 AI CUDA 엔지니어링 100배 속도 주장 → 실제론 3배 느림 /AI 스타트업은 기술적 투명성, 검증 데이터 기반 소통, 과장 방지가 장기 신뢰 구축의 핵심. Neuronpedia의 Gemma-Scope, Haiku, 서킷 트레이서, Steerable LLM 시연 및 논의. 특정 조건(예: 사장 모드, 월급날)에서 모델 응답을 스티어링(제어) 가능하지만, 실제론 “가능하기만 한” 단계라는 한계 언급. 한국어 모델에서 Steerable LLM의 실질적 유용성 검증 필요성 공감.


2025년 6월 08일: AI 통계 솔루션 시장은 국가 데이터 거버넌스와 수출형 SaaS AI 개발 기회가 커지고 있으며, 이 시장에 맞는 검증된 기업과 플랫폼 발굴이 중요. AI 기반 조직은 권한 위임, 자기 주도적 업무 설계, 리더십-에이전트형 업무 분담을 위한 HR 혁신이 필요.  Claude Code, Sakana Darwin Godel Machine (GDM) 등 스스로 진화, 자율 학습, 에이전틱 AI가 메이저 트렌드로 부각.  AI 기술은 단일 LLM에서 복수 Agent 협업·자율 진화형 AI로 진화 중이며, 차세대 AI 솔루션은 Agent orchestration이 핵심 경쟁력이 될 것. AI 기반 요약·분석은 사람의 최종 검증 루틴과 결합된 하이브리드 워크플로우가 정착돼야 한다. AI 창작 기술은 툴의 성능뿐 아니라 현실적 적용을 위한 워크플로우 설계, 교육, 조직 문화 변화가 병행돼야 한다.

 

2025년 6월 07일: NVIDIA ChatRTX — 로컬 AI + 개인 데이터 활용 도구 - ChatRTX는 **로컬 환경에서 Llama 기반 LLM + RAG (검색 증강 생성)**를 구현. Windows 11 필요, 한글 성능 미흡, 초기 사용자 후기 평가는 기대보다 낮음. 사용자는 **데이터 보안(로컬 실행)**과 성능/편의성 간 균형을 주목.
AI 기술 확산은 디지털 접근성, 교육, 정책 지원과 결합되어야 포용적 사회 혁신을 실현 가능. 미국 AI 기업이 시장 주도하는 반면, 정부 정책은 규제 강화/속도 저하로 시류 역행. 의료, 로봇, AI 시장이 전방위 확장하는 흐름과 정책 간 간극. 공유된 AI 기반 숏폼 영상에서 연출, 스토리텔링, 창의성에 감탄. 하지만 실무에서는 AI에 대한 과도한 기대와 현실의 괴리 존재.

2025년 6월 06일: 생성형 AI 영상/이미지 기술은 영향력, 설득력, 감정적 호소 측면에서 텍스트 기반 AI보다 훨씬 강력한 도구이며, 이에 따른 윤리적 기준과 활용 가이드라인이 절실하다.  경기도 AI 교육과정(“AI로 칼퇴 프로젝트”)에 대해 기대와 냉소가 교차. AI 도구로 인해 MVP(최소 기능 제품) 검증 단계가 무의미해지고, MMP(시장 적합 제품) 검증이 창업의 출발점이 됨. 키오스크 사례를 통해 AI 도입만으로 사용자 경험이 개선되지 않음. 생성형 AI 기술의 급속 발전이 종이책 기반 학습 방식의 한계를 지적. “발표자료보다 더 빨리 변하는 AI”, “책으로 배우기 어려운 분야”라는 공감대. NotebookLM 등 AI 기반 요약·마인드맵 도구 활용 사례 확산. AI 학습 자료는 실시간 업데이트, 인터랙티브 학습 도구로 진화해야 한다. AI는 기술적 실체와 마케팅 간 신뢰의 간극을 줄이는 투명성 확보가 핵심 과제.


2025년 6월 05일: Gemini Advance/Ultra, Google Workspace Business Standard 연계 활용 /Gemini 단독 결제보다 Workspace 연계 시 저렴한 비용 + 추가 혜택(드라이브 2TB, 보안 등) 제공/ 사용자들은 비용-기능-활용 목적에 따라 요금제를 전략적으로 선택.
생성형 AI는 보조적 생산성 도구로 자리 잡았으며, 최종 산출물의 검증은 여전히 인간 전문가의 몫임을 재확인.
Builder.ai, Amazon Go 사례 언급: AI 자동화라고 홍보되지만 실제는 대규모 수작업 의존
AI 기반 코드 생성, 개발 보조 서비스는 개인 개발자와 소규모 팀에 생산성 혁신 도구로 자리매김 중.
“AI가 단톡방에 숨어 활동하는 상상”, “TTS 같은 목소리” 등 AI와 인간 구분에 대한 유머러스한 담론
AI + 협업 플랫폼 통합 전략은 비용, 기능, 보안, 사용자 경험을 모두 고려하는 멀티 레이어 설계가 필요.

2025년 6월 04일: Veo3 같은 AI 기반 영상·음악·음성 생성 도구가 개인 창작자와 현업 실무자에게 빠르게 보급. 영상 제작, 배경음악, 음성합성 등 멀티모달 콘텐츠 제작의 진입 장벽이 AI로 크게 낮아짐. “목소리도 알아서 넣어주더라구요”, “유튜브 소스, 배경음악 만들기 편하다”는 피드백에서 AI 기반 창작의 실질적 효용성을 확인. AI 관련 정책·규제 동향은 실무자, 연구자, 창작자 모두에게 전략적 정보로 자리잡고 있으며, AI 기반 요약·검색 툴과 결합해 정보 습득과 활용 방식이 변하고 있다. 다양한 LLM·멀티모달 모델 간 벡터 공간 호환성과 변환 가능성은 향후 모델 간 상호 운용성과 파라미터 효율화를 가능하게 하는 핵심 기술로 부각될 것. AI와 수학, 생명과학의 학제 융합 연구가 활성화되며, 특히 설명 가능성(XAI), 물리적 일관성, 생물학적 해석력 강화가 차세대 연구 핵심 키워드가 되고 있다. AI 기반 시각화는 설명 가능한 디자인 + 사용자 중심 설계 + 정보 최소화 전략과 결합해야 진정한 가치를 발휘한다. AI + 교육 정책 설계에서는 현장 경험 기반의 실효성 있는 프로그램과 기초 교육-응용 교육의 균형적 강화가 필수적이다.


2025년 6월 03일: LM_A → Output1 → LLM_B → Output2 → LLM_평가 → 개선 제안 → 역전파(프롬프트, Output1, Output2 순차 개선) 구조
생성형 AI 시스템을 단순 생성기 → 평가자 → 최적화 루프로 발전시키는 아이디어
구글, Anthropic(클로드), OpenAI 등이 이미 유사한 방식(메타프롬프트, 다단계 에이전트 최적화)을 사용 중일 가능성
LLM 도구는 레퍼런스 기반 답변 신뢰성이 낮으며, 반드시 원문 확인 필요. AI 기반 딥리서치 툴은 초기 조사 및 초안 보조 도구로 최적화되고 있으며, 최종 학술적 검증과 레퍼런스 확인은 인간 전문가의 몫이라는 협업 구조가 자리 잡고 있다.
개표방송, 데이터 시각화, 생성형 AI의 결합 사례 다수 관찰: AI 기반 후보자 이미지 생성, 표정·동작 변화 자동 생성. 데이터 기반 지역·연령·득표율 시각화에 AI 활용. AI 기반 시각화 품질과 정보 과잉 문제 논의: 지나치게 많은 정보를 한 그래프에 담으면 직관성이 떨어짐. AI 생성 시각화도 인간 해설 + 디자인 최적화 없이는 전달력 한계.


2025년 6월 02일: Perplexity Labs의 기능 발전에 대해 실무자들이 매우 긍정적 평가를 하고 있으며, LLM(대형언어모델) 기반 도구는 주간 보고, 연구자료 작성 등에서 생산성 도구로 실질적 활용되고 있음. AI를 프린터나 컴퓨터 같은 기본적인 도구로 인식하는 태도가 확산. AI는 점점 특수한 기술이 아닌 기본적 업무 인프라로 자리 잡고 있으며, 특히 생산성 향상 도구로 조직 문화에 자연스럽게 통합되고 있다.
일부는 “AI를 써야 한다”, **“업무 효율을 위해 필수적”**이라고 보며, 다른 일부는 “AI는 사고력을 저해한다”, **“저연차는 자제해야 한다”**는 경계심을 드러냄. 
고연차와 저연차, 실무 경험자와 관리자 간 AI 수용도 차이가 존재. 인사이트: AI 도입과 활용에 있어서 경력, 역할, 세대에 따른 수용성 차이를 인지하고, 이에 맞는 교육·문화적 가이드가 필요하다.
Perplexity, LLM 기반 도구들이 저품질 글을 참조하거나 품질 검증 없는 산출물을 생성. TextGrad (네이처 논문): LLM을 새로운 학술적 방법론으로 발전시키는 흐름 주목. Perplexity Labs, Alpha Evolve 등 최신 기술을 현업 연구자들이 적극 분석하고 공유. “AI는 사고력을 떨어뜨리는가?” “AI 활용은 경력/역할에 따라 달라져야 하는가?” “AI 사용은 윤리적, 규범적으로 어떤 위치에 있어야 하는가?”
AI 도구가 업무 필수 인프라로 자리 잡아가는 현실, AI 산출물 신뢰성 논란과 품질 관리 필요성, 사회적 수용성과 철학적 논쟁, AI 연구의 최신 동향 반영, 비즈니스와 윤리의 접점에서 AI 사용의 책임성 강화

2025년 6월 01일: "AI를 연구에 사용해도 되는가?", **"쓸만한 도구는 무엇인가?"**
논문 작성/수정에는 AI 활용을 허용하는 저널이 다수. 리뷰 논문에는 AI 활용을 엄격히 금지하는 경우가 많음 (MDPI조차 금지). AI 활용 규정은 기술 발전 속도를 따라가지 못하는 경우가 많고, 규정 부재가 기술 불신으로 이어질 위험이 있다는 지적.
생성형 AI의 학술 활용은 앞으로 점진적으로 허용 범위가 넓어질 가능성이 있으며, 이 과정에서 명확하고 유연한 윤리·가이드라인 개발이 시급하다.
AI 기술 수용을 위한 규제 체계는 유연성 + 선제적 대응 + 지속적 보완이 핵심이다. 또한 기술 초기 단계에서부터 사회적 부정적 영향에 대한 논의와 대비가 필수적이다. AI는 국제 과학외교, 민감 기술 검증, 글로벌 협력의 수단으로 진화하고 있다. 기술 발전을 정치적·이념적 장벽이 아닌 협력의 기회로 활용해야 한다는 시사점을 제공한다. 생성형 AI는 학문과 글쓰기의 표준화와 효율화를 촉진하지만, 동시에 창의성의 본질과 가치를 재정의하도록 사회를 압박할 것이다.

bottom of page