Sau đại học
Trang chủ   >  Tin tức  >   Thông báo  >   Sau đại học
Thông tin LATS của NCS Phạm Thị Ngân
Tên đề tài luận án: Nghiên cứu cải tiến phân lớp đa nhãn và ứng dụng

1. Họ và tên nghiên cứu sinh: Phạm Thị Ngân

2. Giới tính: Nữ

3. Ngày sinh: 18/07/1983

4. Nơi sinh: Quảng Ninh

5. Quyết định công nhận NCS số 858/QĐ-ĐT ngày 29/10 /2012 của Hiệu trưởng trường Đại học Công nghệ

6. Các thay đổi trong quá trình đào tạo: ..............................

(ghi các hình thức thay đổi và thời gian tương ứng)

7. Tên đề tài luận án: Nghiên cứu cải tiến phân lớp đa nhãn và ứng dụng............................................

(tên luận án chính thức đề nghị bảo vệ cấp Đại học Quốc gia)

8. Chuyên ngành: Hệ thống thông tin

9. Mã số: 62.48.05.01

10. Cán bộ hướng dẫn khoa học: PGS.TS Hà Quang Thụy, PGS.TS Phan Xuân Hiếu..........................

(ghi rõ chức danh khoa học, học vị, họ và tên)

11. Tóm tắt các kết quả mới của luận án:

- Đề xuất một thuật toán phân lớp đa nhãn khai thác tính riêng biệt dựa trên phân cụm bán giám sát (Thuật toán MASS [PTNgan5]) trên cơ sở áp dụng một chiến lược tham lam khi tích hợp hai thuật toán LIFT [Zhang15a] và TESC [Zhang15b]. Mối liên quan giữa các nhãn lớp được quy tụ vào các cụm dữ liệu mẫu có cùng tập nhãn. Tính hiệu quả của thuật toán đề xuất đã được luận giải và kiểm chứng bằng thực nghiệm.

- Đề nghị hai mô hình biểu diễn dữ liệu cho phân lớp đa nhãn là mô hình biểu diễn dữ liệu đồ thị khoảng cách được đề xuất trong [PTNgan4] nhằm khai thác các thông tin bậc cao về trật tự và khoảng cách đặc trưng trong văn bản và mô hình biếu diễn dữ liệu chủ đề ẩn được đề xuất trong [PTNgan3] nhằm khai thác các thông tin ngữ nghĩa ẩn trong văn bản để làm giàu thêm các đặc trưng cho mô hình. Tính hiệu quả của các mô hình biểu diễn văn bản đã được luận giải và kiểm chứng bằng thực nghiệm.

- Đề xuất một mô hình phân lớp đa nhãn MULTICS trong [PTNgan6] dựa trên khai thác thuật toán phân lớp đa nhãn bán giám sát trong [PTNgan5] kết hợp với tiếp cận biểu diễn dữ liệu chủ đề ẩn khai thác thông tin ngữ nghĩa ẩn trong văn bản làm giàu đặc trưng cho thuật toán phân lớp.

- Luận án đóng góp vào dòng nghiên cứu trên thế giới và trong nước về học máy đa nhãn trong văn bản tiếng Việt thông qua công bố 06 bài báo khoa học tại các ấn phẩm khoa học quốc tế có uy tín.

- Các kết quả nghiên cứu từ luận án đã được thực nghiệm, đánh giá kết quả cho thấy có tiềm năng ứng dụng thực tế.

12. Khả năng ứng dụng trong thực tiễn: (nếu có) Ứng dụng trong các bài toán liên quan đến phân lớp văn bản nói chung

13. Những hướng nghiên cứu tiếp theo: Trong thời gian tiếp theo, nghiên cứu sinh sẽ tiếp tục nghiên cứu các hướng giải quyết cho các hạn chế còn tồn tại của luận án và tiếp tục triển khai các đề xuất để hoàn thiện hơn các giải pháp cho phân lớp đa nhãn.

- Một là, thuật toán MULTICSLearn cần được phân tích sâu sắc hơn đặc biệt ở khía cạnh độ phức tạp thời gian tính toán trong một vùng hoặc toàn bộ miền ứng dụng. Cần đưa ra các phân tích đánh giả để luận giải được tính hiệu quả của chiến thuật tham lam được dùng trong thuật toán ít nhất về độ phức tạp thời gian trong trường hợp xấu nhất.

- Hai là, các kỹ thuật giảm chiều dữ liệu tiên tiến cho phân lớp đa nhãn cần được nghiên cứu để áp dụng sáng tạo vào các bài toán ứng dụng trong luận án.

- Ba là, khảo sát miền ứng dụng dữ liệu ảnh, nghiên cứu các mô hình và giải pháp phân lớp đa nhãn – đa thể hiện đối với dữ liệu ảnh nhằm làm phù hợp với quá trình tiến hóa của phân lớp dữ liệu.

14. Các công trình đã công bố có liên quan đến luận án: ...........

- Thi-Ngan Pham, Le-Minh Nguyen, Quang-Thuy Ha (2012). Named Entity Recognition for Vietnamese documents using semi-supervised learning method of CRFs with Generalized Expectation CriteriaIALP 2012: 85-89

- Thi-Ngan Pham, Thi-Thom Phan, Phuoc-Thao Nguyen, Quang-Thuy Ha (2013). Hidden Topic Models for Multi-label Review Classification: An Experimental StudyComputational Collective Intelligence. Technologies and Applications, Lecture Notes in Computer Science Volume 8083:603-611.

- Thi-Ngan Pham, Thi-Hong Vuong, Thi-Hoai Thai, Mai-Vu Tran, Quang-Thuy Ha (2016). Sentiment Analysis and User Similarity for Social Recommender System: An Experimental Study. Lecture Notes in Electrical Engineering (376): 1147-1156

- Thi-Ngan Pham, Van-Hien Tran, Tri-Thanh Nguyen, Quang-Thuy Ha (2017). Exploiting Distance graph and Hidden Topic Models for Multi-label Text Classification. ACIIDS 2017. Studies in Computational Intelligence, Volume 710 (Advanced Topics in Intelligent Information and Database Systems): 321-331.  

- Thi-Ngan Pham, Van-Quang Nguyen, Duc-Trong Dinh, Tri-Thanh Nguyen, Quang-Thuy Ha (2017). MASS: a Semi-supervised Multi-label Classification Algorithm With specific Features. ACIIDS 2017. Studies in Computational Intelligence, Volume 710 (Advanced Topics in Intelligent Information and Database Systems): 37-47. 

- Thi-Ngan Pham, Van-Quang Nguyen, Van-Hien Tran, Tri-Thanh Nguyen, and Quang-Thuy Ha (2017). A semi-supervised multi-label classification framework with feature reduction and enrichment. Journal of Information and Telecommunication, 1-14.

 Vũ Ngọc - VNU - UET
  In bài viết     Gửi cho bạn bè
  Từ khóa :
Thông tin liên quan
Trang: 1   | 2   | 3   | 4   | 5   | 6   | 7   | 8   | 9   | 10   | 11   | 12   | 13   | 14   | 15   | 16   | 17   | 18   | 19   | 20   | 21   | 22   | 23   | 24   | 25   | 26   | 27   | 28   | 29   | 30   | 31   | 32   | 33   | 34   | 35   | 36   | 37   | 38   | 39   | 40   | 41   | 42   | 43   | 44   | 45   | 46   | 47   | 48   | 49   | 50   | 51   | 52   | 53   | 54   | 55   | 56   | 57   | 58   | 59   | 60   | 61   | 62   | 63   | 64   | 65   | 66   | 67   | 68   | 69   | 70   | 71   | 72   | 73   | 74   | 75   | 76   | 77   | 78   | 79   | 80   | 81   | 82   | 83   | 84   | 85   | 86   | 87   | 88   | 89   | 90   | 91   | 92   | 93   | 94   | 95   | 96   | 97   | 98   | 99   | 100   | 101   | 102   | 103   | 104   | 105   | 106   | 107   | 108   | 109   | 110   | 111   | 112   | 113   | 114   | 115   | 116   | 117   | 118   | 119   | 120   | 121   | 122   | 123   | 124   | 125   | 126   | 127   | 128   | 129   | 130   | 131   | 132   |