Risk Prediction Model of Legal Contract Based on Korean Machine Reading Comprehension
![]() |
Lee, Chi Hoon
(티쓰리큐(주) 인공지능연구소)
Woo, Noh Ji (티쓰리큐(주) 인공지능연구소) Jeong, Jae Hoon ((주)리걸인사이트) Joo, Kyung Sik ((주)리걸인사이트) Lee, Dong Hee (국민대학교 경영학부) |
1 | Liu et al., "Roberta : A robustly optimized bert-pretraining approach", arXiv preprint arXiv: 1907.11692, 2019. |
2 | Rajpurkar, P., J. Zhang, K. Lopyrev, and P. Liang, "Squad : 100,000+ questions for machine comprehension of text", arXiv preprint arXiv: 1606.05250, 2016. |
3 | Vaswani et al., "Attention is all you need", In Advances in Neural Information Processing Systems, arXiv preprint arXiv:1706.03762, 2017. |
4 | 국정모니터링지표, "중소기업 일반현황", 2020. Available at http://www.index.go.kr/potal/main/EachDtlPageDetail.do?idx_cd=1181 (Accessed December 30. 2020). |
5 | 김미영, "리걸테크(Legal Tech) 분야의 기술 현황 및 실제 이용 사례 연구", 한국과학기술정보연구원, 2019. doi:10.22800/KISTI.KOSENEXPERT.2019.265. |
6 | 김민호, 조상현, 박덕근, 권혁철, "안전기준의 검색과 분석을 위한 기계독해 기반 질의응답 시스템", 멀티미디어학회논문지, 제23권, 제2호, 2020, 351-360. |
7 | 민재옥, 박진우, 조유정, 이봉건, "BERT를 이용한 한국어 특허상담 기계독해", 한국정보처리학회지, 제4권, 제9호, 2020, 145-152. |
8 | 박광현, 나승훈, 최윤수, 장두성, "BERT와 Multi-level Co-Attention Fusion을 이용한 한국어 기계독해", 한국정보과학회 학술발표논문집, 2019, 643-645. |
9 | 심경보, 박운상, "R-NET 기반 한국어 금융 데이터 질의응답 시스템", 대한전기학회 정보및제어논문집, 2019, 272-273. |
10 | 이동헌, 박천음, 이창기, 박소윤, 임승영, 김명지, 이주열, "BERT를 이용한 한국어 기계독해", 한국정보과학회 학술발표논문집, 2019, 557-559. |
11 | 이영훈, 나승훈, 최윤수, 이혜우, 장두성, "ALBERT를 이용한 한국어 자연어처리 : 감성분석, 개체명 인식, 기계독해", 한국정보과학회 학술발표논문집, 2020, 332-334. |
12 | 이치훈, 이연지, 이동희, "사전 학습된 한국어 BERT의 전이학습을 통한 한국어 기계독해 성능개선에 관한 연구", 한국IT서비스학회지, 제19권, 제5호, 2020, 83-91. DOI |
13 | 중소기업중앙회 보도자료, "하도급거래시 표준계약서 사용.어음결제기일 준수 절실", 홍정호, 박성우, 2017. 11. 26. |
14 | 인공지능신문 기사, "인라이플, LG CNS와 1억개 NLP모델 오픈 소스 공개...", 최광민, 2020. Available at http://www.aitimes.kr/news/articleView.html?idxno=16636 (Accessed December 30. 2020). |
15 | 임승영, 김명지, 이주열, "KorQuAD : 기계독해를 위한 한국어 질의응답 데이터셋", 한국정보과학회 2018 한국소프트웨어종합학술대회 논문집, 2018, 539-541. |
16 | 조영주, 배강민, 박종열, "GAN 적대적 생성 신경망과 이미지 생성 및 변환 기술 동향", 한국전자통신연구원 전자통신동향분석, 제35권, 제4호, 2020, 91-102. |
17 | 중소기업중앙회, "2017년 중소기업 하도급거래 실태조사 결과 보고서", 2017. |
18 | Christian, V., B. Michael, H. Michael, W. Hariolf, H. Markus, and H. Dirk, "How Legal Technology Will Change the Business of Law", The Boston Consulting Group & Bucerius Law School, 2016. 01. |
19 | Dai, Q., X. Shen, L. Zhang, Q. Li, and D. Wang, "Adversarial Training Methods for Network Embedding", The World Wide Web Conference 2019, 2019. |
20 | Devlin, J., M.W. Chang, K. Lee, and K. Toutanova, "BERT : Pre-training of Deep Bidirectional Transformers for Language Understanding", arXiv preprint arXiv:1810.04805, 2018. |
21 | Enliple Github, 2020. Available at https://github.com/enlipleai/kor_pretrain_LM (Accessed December 30. 2020). |
22 | Goodfellow, J., J. Shlens, and C. Szegedy, "Explaining and Harnessing Adversarial Examples", arXiv preprint arXiv:1412.6572, 2015. |
23 | Kurakin, A., I. Goodfellow, and S. Bengio, "Adversarial Machine Learning at Scale", arXiv preprint arXiv: 1611.01236, 2017. |
24 | Lan, Z., M. Chen, S. Goodman, K. Gimpel, P. Sharma, and R. Soricut, "ALBERT : A lite bert for self-supervised learning of language representations", arXiv preprint arXiv: 1909.11942, 2019. |
![]() |