1. Geoffrey Hintons 2006 Papier :Im Jahr 2006 veröffentlichte der Informatiker Geoffrey Hinton ein wegweisendes Papier mit dem Titel "Deep Learning:A Tutorial über tiefe neuronale Netze" im Natur Magazine. Dieses Papier gilt als Meilenstein auf dem Gebiet künstlicher neuronaler Netze und half bei der Popularisierung des Begriffs "Deep Learning". Hinton und seine Kollegen an der Universität von Toronto gelten allgemein als Pioniere bei der Entwicklung von Deep -Lern -Techniken.
2. Yoshua Bengios Verwendung des Begriffs :Yoshua Bengio, ein weiterer prominenter Forscher auf diesem Gebiet, spielte auch in den frühen 2000er Jahren eine bedeutende Rolle bei der Popularisierung des Begriffs "Deep Learning". Bengio und seine Kollegen an der Université de Montréal führten bahnbrechende Forschungen zu Deep -Learning -Algorithmen durch und verwendete in seinen Forschungsveröffentlichungen häufig den Begriff "tiefes Lernen".
3. Einfluss der kognitiven Psychologie :Einige glauben, dass die Inspiration für den Begriff "tiefes Lernen" aus dem Begriff der "tiefen Struktur" in der kognitiven Psychologie stammt. Tiefe Struktur ist ein Begriff in Linguistik und kognitiver Psychologie, um die zugrunde liegende Darstellung oder Syntax einer Sprache zu beschreiben, die über die Merkmale von Wörtern und Phrasen auf Oberflächenebene hinausgeht. Dieses Konzept hat möglicherweise das Verständnis von Deep -Lern -Modellen als die Erfassung von zugrunde liegenden Mustern und komplexen Beziehungen in Daten beeinflusst.
4. Vergleich mit traditionellem maschinellem Lernen :Der Begriff "tiefes Lernen" wurde wahrscheinlich geprägt, um ihn von herkömmlichen Methoden für maschinelles Lernen zu unterscheiden. Während traditionelle Algorithmen für maschinelles Lernen häufig auf flachen neuronalen Netzwerken oder flachen Darstellungen von Daten beruhen, beinhaltet das Deep -Lernen die Verwendung von tiefen neuronalen Netzwerken mit mehreren versteckten Schichten. Diese tiefen Architekturen ermöglichen eine komplexere und hierarchischer Merkmalextraktion, sodass Modelle auf höhere Datenerdarstellungen von Daten lernen können.
5. Historischer Kontext :In den frühen Tagen der Forschung des neuronalen Netzwerks waren flache neuronale Netze die Norm, und sie konfrontierten Einschränkungen in ihren Repräsentationsfähigkeiten und der Fähigkeit, komplexe Probleme zu lösen. Die Entstehung leistungsstarker Rechenressourcen wie grafische Verarbeitungseinheiten (GPUs) in den späten 2000er Jahren ermöglichte es, tiefere neuronale Netze effektiv zu trainieren. Dieser historische Kontext trug zur Notwendigkeit eines Begriffs bei, der die Fortschritte und die verstärkte Komplexität dieser neuen Ansätze erfasste, weshalb der Begriff "tiefes Lernen" an Traktion gewonnen hat.
Es ist wahrscheinlich eine Kombination dieser Faktoren, zusammen mit der Konvergenz von Forschungsbemühungen und Durchbrüchen, die zur weit verbreiteten Einführung des Begriffs "Deep Learning" führte, das Unterfeld innerhalb maschineller Lernen zu beschreiben, das sich auf tiefe neuronale Netzwerke konzentrierte.