Performance Evaluation of Graph and Hypergraph Learning for Real-world Dynamic Networks

실세계 동적 네트워크 분석을 위한 그래프 및 하이퍼그래프 학습 기술 성능 평가

  • Songkyung Yu (Dept. of Artificial Intelligence Application, Hanyang University) ;
  • Daeun Lee (Dept. of Artificial Intelligence Application, Hanyang University) ;
  • Yunyong Ko (School of Computer Science and Engineering, Chung-Ang University) ;
  • Sang-Wook Kim (Dept. of Computer Science, Hanyang University)
  • 유송경 (한양대학교 AI 응용학과 ) ;
  • 이다은 (한양대학교 AI 응용학과 ) ;
  • 고윤용 (중앙대학교 소프트웨어학부) ;
  • 김상욱 (한양대학교 컴퓨터소프트웨어학과)
  • Published : 2024.05.23

Abstract

그래프 학습 기술은 실세계의 네트워크를 그래프로 모델링하여 분석함으로써, 네트워크에 내재된 유용한 정보를 도출하는 핵심적인 역할을 한다. 그러나 기존의 그래프 학습 기술에는 두 가지 한계점이 존재한다: (1) 그룹 정보 표현의 한계 및 (2) 동적 관계 학습의 한계. 각 한계를 극복하기 위해 하이퍼그래프 학습 기술과 동적 그래프 학습 기술이 활발하게 연구되었지만, 두 가지 한계를 동시에 극복하기 위한 연구들은 아직까지 충분히 수행되지 못했다. 이러한 동기로부터, 본 논문은 실세계 네트워크를 동적인 하이퍼그래프로 모델링하여, 동적 그래프 학습 기술, 정적 하이퍼그래프 학습 기술, 그리고 동적 하이퍼그래프 학습 기술들의 성능에 대해 비교 분석하고자 한다. 실험 결과, 시간에 따라 변화하는 실세계의 복잡한 관계를 정확하게 포착하는 데는 동적 하이퍼그래프 학습 기술이 가장 효과적이라는 것을 확인하였다.

Keywords

Acknowledgement

이 논문은 2022 년도 정부(과학기술정보통신부)의 재원으로 정보통신기획평가원의 지원(No.2022-0-00352)과 2023 년도 정부(과학기술정보통신부)의 재원으로 정보통신기획평가원의 지원을 받아 수행된 연구임 (No.RS-2022-00155586, 실세계의 다양한 다운스트림 태스크를 위한 고성능 빅 하이퍼그래프 마이닝 플랫폼 개발(SW 스타랩))

References

  1. Fan, Wenqi, et al. "Graph neural networks for social recommendation." The world wide web conference. 2019.
  2. Yu, Chia-An, et al. "Modeling multi-way relations with hypergraph embedding." Proceedings of the 27th ACM International Conference on Information and Knowledge Management. 2018.
  3. Zhang, Muhan, et al. "Beyond link prediction: Predicting hyperlinks in adjacency space." Proceedings of the AAAI Conference on Artificial Intelligence. Vol. 32. No. 1. 2018.
  4. Fan, Wenfei. "Graph pattern matching revised for social network analysis." Proceedings of the 15th international conference on database theory. 2012.
  5. Zhang, Xiao-Meng, et al. "Graph neural networks and their current applications in bioinformatics." Frontiers in genetics 12 (2021): 690049.
  6. Grover, Aditya, and Jure Leskovec. "node2vec: Scalable feature learning for networks." Proceedings of the 22nd ACM SIGKDD international conference on Knowledge discovery and data mining. 2016.
  7. Feng, Yifan, et al. "Hypergraph neural networks." Proceedings of the AAAI conference on artificial intelligence. Vol. 33. No. 01. 2019.
  8. Dong, Yihe, Will Sawin, and Yoshua Bengio. "Hnhn: Hypergraph networks with hyperedge neurons." arXiv preprint arXiv:2006.12278 (2020).
  9. Yang, Chaoqi, et al. "Semi-supervised hypergraph node classification on hypergraph line expansion." Proceedings of the 31st ACM International Conference on Information & Knowledge Management. 2022.
  10. You, Jiaxuan, Tianyu Du, and Jure Leskovec. "ROLAND: graph learning framework for dynamic graphs." Proceedings of the 28th ACM SIGKDD conference on knowledge discovery and data mining. 2022.
  11. Rossi, Emanuele, et al. "Temporal graph networks for deep learning on dynamic graphs." arXiv preprint arXiv:2006.10637 (2020).
  12. Rong, Yu, et al. "Dropedge: Towards deep graph convolutional networks on node classification." arXiv preprint arXiv:1907.10903 (2019).
  13. Wu, Qitian, et al. "Nodeformer: A scalable graph structure learning transformer for node classification." Advances in Neural Information Processing Systems 35 (2022): 27387-27401.
  14. Yadati, Naganand, et al. "Nhp: Neural hypergraph link prediction." Proceedings of the 29th ACM international conference on information & knowledge management. 2020.
  15. Yoon, Se-eun, et al. "How much and when do we need higher-order information in hypergraphs? a case study on hyperedge prediction." Proceedings of The Web Conference 2020. 2020.
  16. Defferrard, Michael, Xavier Bresson, and Pierre Vandergheynst. "Convolutional neural networks on graphs with fast localized spectral filtering." Advances in neural information processing systems 29 (2016).
  17. Kipf, Thomas N., and Max Welling. "Semi-supervised classification with graph convolutional networks." arXiv preprint arXiv:1609.02907 (2016).