[Youtube] DH Asia Webinar Series
DH Asia Webinar 시리즈가 세츠코 요코야마 교수의 유튜브 계정에 올라왔습니다. 그간 했던 웨비나 내용이 올라와 있으니 많은 시청 및 구독 바랍니다.
디지털 인문학(Digital Humanities)은 디지털 환경과 데이터 처리 기술을 매개로 수행하는 새로운 방식의 인문학 연구와 교육을 말합니다.
About KADHDH Asia Webinar 시리즈가 세츠코 요코야마 교수의 유튜브 계정에 올라왔습니다. 그간 했던 웨비나 내용이 올라와 있으니 많은 시청 및 구독 바랍니다.
안녕하세요. 안양대학교 신학연구소 HK+사업단입니다. 제18회 국내학술대회를 개최합니다. □ 일시 : 2025년 2월 7일 (금) 14시 – 18시 □ 장소 : 안양대학교 HK+ 사업단 대회의실 (경기도 안양시 안양로 311 프로젝트500타워 14층) □ 주제 : 동·서 디지털 인문학, 활용과 번역 (디지털인문학과 번역 Part 2) □ 주최 : 안양대학교 HK+사업단, 안양대학교 인문과학연구소
인문학을 중점적으로 다루는 문과대학에서도 디지털 전환의 시대를 어떻게 맞이해야 할지 고민해야 할 시점이 도래했습니다. 우리는 디지털 전환의 시대가 인문학에 위기를 가져오기보다는 기회를 제공할 것이라고 생각합니다. 인공지능으로 대표되는 기술 개발의 대부분이 인문학의 적극적인 개입 없이는 무익하거나 유해한 방향으로 흐를 수 있기 때문입니다. 인문학이 디지털 전환 시대의 선도자요 감시자가 되어야 한다는 뜻입니다. 이러한 시대적 요구에 발맞추어 고려대학교 … Read more
Ollama는 대규모 언어 모델(LLM)을 로컬에서 실행할 수 있도록 돕는 도구이며, 이 라이브러리는 Ollama와 함께 사용할 수 있는 다양한 모델들을 모아 놓은 저장소라고 할 수 있습니다. 쉽게 말해, Ollama는 거대한 뇌를 내 컴퓨터에서 직접 사용할 수 있게 해주는 도구이고, Ollama.com/library 는 그 뇌를 업그레이드하거나, 다른 종류의 뇌로 바꿔 끼울 수 있도록 다양한 뇌 모델들을 제공하는 곳이라고 … Read more
明清史研究辑刊. DeepSeek回答:AI时代,中国史研究面临的挑战与机遇. 2025.01.30. https://www.163.com/dy/article/JN5FQJ9E05438Q4K.html AI 시대의 중국사 연구: 도전과 기회 (AI 時代의 中國史 硏究: 挑戰과 機會) 인공지능(人工知能, AI) 기술의 급속한 발전 속에서, 중국사 연구(中國史 硏究)는 독특한 도전에 직면함과 동시에 전례 없는 기회를 맞이하고 있습니다. 본 분석은 문헌 처리(文獻處理), 연구 방법(硏究方法), 학과 발전(學科發展)의 세 가지 차원에서 구체적으로 논의하고자 합니다. 1. 핵심 도전: 디지털 격차와 현지화의 어려움 … Read more
The 5th International Conference on Natural Language Processing for Digital Humanities (NLP4DH 2025) will be organized together with NAACL 2025. The proceedings of the conference will be published in the ACL anthology. The conference will take place in Albuquerque, USA on May 3–4, 2025. Important dates All times are Anywhere on Earth (AoE). https://www.nlp4dh.com/nlp4dh-2025
https://github.com/deepseek-ai 딥시크는 중국 인공지능 스타트업에서 개발한 대규모 언어 모델(LLM)입니다. 2024년 1월 20일 공개된 딥시크는 GPT-4를 능가하는 성능과 저렴한 개발 비용으로 큰 주목을 받았습니다. 특히, 딥시크가 공개된 이후 나스닥을 비롯한 미국 증시, 그리고 AI 관련 주요 기업들의 주가가 크게 하락하며 ‘딥시크 쇼크’라는 신조어까지 등장했습니다. 딥시크 쇼크 & 나스닥 폭락 딥시크의 등장은 AI 기술 분야의 ‘스푸트니크 모멘트’로 … Read more
https://arxiv.org/abs/2501.09751 https://github.com/zjunlp/OmniThink Machine writing with large language models often relies on retrieval-augmented generation. However, these approaches remain confined within the boundaries of the model’s predefined scope, limiting the generation of content with rich information. Specifically, vanilla-retrieved information tends to lack depth, utility, and suffers from redundancy, which negatively impacts the quality of generated articles, leading … Read more
https://arxiv.org/abs/2501.09891 We explore an evolutionary search strategy for scaling inference time compute in Large Language Models. The proposed approach, Mind Evolution, uses a language model to generate, recombine and refine candidate responses. The proposed approach avoids the need to formalize the underlying inference problem whenever a solution evaluator is available. Controlling for inference cost, we … Read more