Zwei Paper bei ESWC 2024 Workshops angenommen
25.06.2024
Der Text2KG-Workshop auf der ESWC-2024 hat das folgende Papier angenommen:
- "Incorporating Type Information Into Zero-Shot Relation Extraction" - Cedric Möller und Ricardo Usbeck
Zusammenfassung: Die Aufgabe der Zero-Shot Relationsextraktion konzentriert sich auf die Extraktion von Relationen, die während der Trainingszeit nicht gesehen wurden. Üblicherweise werden zusätzliche Informationen über die Relation, wie der Name der Relation oder eine Beschreibung der Relation, verwendet. In dieser Arbeit analysieren wir, ob ein Relationsextraktor von der Einbeziehung feinkörniger Typinformationen über die beteiligten Entitäten profitieren kann. Dies basiert auf der Intuition, dass Relationsbeschreibungen ontologische Informationen über die Domäne und den Bereich der Entitätstypen enthalten können, die üblicherweise in Beziehung gesetzt werden. Zu diesem Zweck verwenden wir eine Cross-Encoding-Methode, bei der wir sowohl die Entitäts- als auch die Beziehungsinformationen als eine Sequenz kodieren und lernen, die Darstellung zu bewerten. Wir untersuchen diese Methode an mehreren Datensätzen und zeigen, dass die Einbeziehung der feinkörnigen Typinformationen zu einer Verbesserung der Leistung führt.
Der NSLP-Workshop auf der ESWC-2024 hat das folgende Papier angenommen:
- "Scholarly Question Answering using Large Language Models in the NFDI4DataScience Gateway" - Hamed Babaei Giglou, Tilahun Abedissa Taffa, Rana Abdullah, Aida Usmanova, Ricardo Usbeck, Jennifer D'Souza und Sören Auer
Zusammenfassung: In diesem Beitrag wird ein wissenschaftliches System zur Beantwortung von Fragen (Question Answering, QA) auf der Grundlage des NFDI4DataScience Gateways vorgestellt, das einen Retrieval Augmented Generation-Ansatz (RAG) verwendet. Das NFDI4DS Gateway bietet als Grundgerüst eine einheitliche und intuitive Schnittstelle für die Abfrage verschiedener wissenschaftlicher Datenbanken mittels föderierter Suche. Die RAG-basierte wissenschaftliche Qualitätssicherung, die durch ein Large Language Model (LLM) unterstützt wird, erleichtert die dynamische Interaktion mit den Suchergebnissen, verbessert die Filtermöglichkeiten und fördert die Konversation mit der Gateway-Suche. Die Effektivität sowohl des Gateways als auch des wissenschaftlichen QA-Systems wird durch experimentelle Analysen demonstriert.