Boosting

Originalartikel wurde von Robert Schapire veröffentlicht

Boosting ist das Hauptmetode für Bildung sehr präziser Prognostizierungalgorithmen durchs Kombinieren von rauhen und nicht verarbeiteten empirischen Regeln. Die letzte relevante Arbeit heißt "AdaBoost" und beleuchtet Boosting Algorithmus und sein Anwendungbereich.


Überschau

Hier ist eine Liste von Arbeiten zum Thema Boosting, besonders AdaBoost:

  • Robert E. Schapire.
    Boosting Ansatz in Maschinenbau: Kurze Übersicht.
    Redaktoren: D. D. Denison, M. H. Hansen, C. Holmes, B. Mallick, B. Yu,  Nicht lineale Einschätzung und Klassifikation. Springer, 2003.

Boostingüberschau:

  • Ron Meir und Gunnar Rätsch.
    Einleitung in Boosting und Einwirkung.
    In Maschinenbau Vorlesungen - fortschrittliches Niveau (LNAI2600), 2003.

Diese Arbeit legt statistische Perspektiven von Boosting vor:

  • Peter Bühlmann und Torsten Hothorn.
    Boostingalgorithmen: Regulation, Prognostizieren und Modelauswahl.
    Statistical Science, 22(4):477-505, 2007.

Hier sind vier ältere  (und ziemlich ähnliche) Arbeiten zu finden:

  • Yoav Freund und Robert E. Schapire.
    Kurze Einleitung in Boosting.
    Magazin der Japanischen Gemeinschaft über künstliche Intelligenz, 14(5):771-780, September, 1999. (Original in japanisch von Naoki Abe übersetzt.)
  • Robert E. Schapire.
    Kurze Einleitung in Boosting.
    In Stichpunkte der 16. internationallen Konferenz zur künstlichen Intelligenz, 1999.
  • Robert E. Schapire.
    Theoretiche Übersicht von Boosting und Anwendungen.
    In 10. internationalle Konferenz zum algorithmischen Lernen, 1999.
  • Robert E. Schapire.
    Theoretische Überschau von Boosting.
    In Rechenlernentheorie: 4. Europakonferenz, EuroCOLT'99, Seiten 1-10, 1999.

Uberschau von gemeinsamen Methoden:

  • Thomas G. Dietterich.
    Gemeinlernen.
    In Gebrauchbuch für Gehirntheorien und neuronale Netzwerke, Neubearbeitet, 2002.

Software

Objektcode für BoosTexter, Gemeinlernenmaschinenprogramm auf Grund Boostings und anderen Dateien, ist jetzt für nicht kommerziellen Gebrauch frei.


(Partielle) Bibliographie

Hier ist eine ziemlich bescheidene Liste von Werken zum Thema Boosting in mehr oder weniger chronologischen Reienfolge. Andere Werke und mehr Informationen zum Boosting finden Sie auf der Seite www.boosting.org.

  • Indraneel Mukherjee und Robert E. Schapire.
    Mehrklassenboostingtheorie.
    In Vorteile der Systeme für Bearbeitung von Neuroninformation 23, 2011.
  • Robert E. Schapire.
    Konvergenzanteil von AdaBoost [offene Frage].
    In 23. Konferenz zur Lerntheorie, 2010.
  • Cynthia Rudin und Robert E. Schapire.
    Grenzenklassifikation und Equivalenz von AdaBoost und RankBoost.
    Maschinenbauvorschungenmagazin 10:2193-2232, 2009.
  • Yongxin Taylor Xi, Zhen James Xiang, Peter J. Ramadge, Robert E. Schapire.
    Geschwindigkeit und Kleinzahl des regulierenden Boostings.
    In Stichpunkte der 12. internationallen Konferrenz zur künstlichen Intelligenz und Statistik, 2009..
  • David Mease und Abraham Wyner.
    Dem statistischen Ansatz zum Boosting entgegen, Mit Antworten und Gegenmeinungen.
    Maschinenbauvorschungenmagazin, 9(Фев):131--201, 2008.
  • Joseph K. Bradley und Robert E. Schapire.
    FilterBoost: Rückgang und Klassifikation von umfangreichen Dateien.
    In Vorteile der Systeme für Bearbeitung von Neuroninformation 20, 2008.
  • Cynthia Rudin, Robert E. Schapire und Ingrid Daubechies.
      Betättigung der Konvergänz von AdaBoost und arc-gv.
    AMS-IMS-SIAM Sommervorschungkonferenz für Maschinen- und Statistiklernen, Prognostizieren und Eröffnung, Seiten 131-145, 2007.
  • Cynthia Rudin, Robert E. Schapire und Ingrid Daubechies.
    Boostingalgorithmenanalyse durch Grenzfunktion.
    Statistikannalen, 35(6):2723-2768, 2007.
  • Lev Reyzin und Robert E. Schapire.
    Wie Grenzenboosting Klassifikatorkomplex erhöhen kann
    In Stichpunkte der 23.internationalen Konferenz für Maschinenbau, 2006.
  • Aurélie C. Lozano, Sanjeev R. Kulkarni und Robert E. Schapire.
    Konvergänz und Reihenfolge der regulierenden Boostingalgorithmen mit stationärer  beta-mixing Kontrolle.
    In Vorteile der Systeme für Bearbeitung von Neuroninformation 18, 2006.
  • Cynthia Rudin, Corinna Cortes, Mehryar Mohri and Robert E. Schapire.
    Margin-based ranking meets boosting in the middle.
    In 18th Annual Conference on Computational Learning Theory, 2005.
  • Robert E. Schapire, Marie Rochery, Mazin Rahim und Narendra Gupta.
    Boosting mit früheren kentnissen über Aufforderungklassifikation.
    IEEE Vortrag- und Nachspielungübersetzung, 13(2), Март, 2005.
  • Cynthia Rudin, Ingrid Daubechies und Robert E. Schapire.
    Dynamik von AdaBoost: Zyklisches Benehmen und Grenzenkonvergänz.
    Maschinenbauvorschungenmagazin, 5: 1557-1595, 2004.
  • Cynthia Rudin, Robert E. Schapire und Ingrid Daubechies.
    Boosting durch glatte Gränze.
    17. jährliche Konferenz für Rechenlernentheorie, 2004.
  • Cynthia Rudin, Ingrid Daubechies und Robert E. Schapire.
    Zur Boostingdynamik.
    In Vorteile der Systeme für Bearbeitung von Neuroninformation 16, 2004.
  • Yoav Freund und Robert E. Schapire.
    Eine Diskussion über ``Konsequenz für AdaBoost'' Wenxin Jiang, ``An Bayesßrisk Konsequenz von regulierenden Boostingmethoden'' Gábor Lugosi und Nicolas Vayatis, ``Statisches Benehmen und Klassifizierungmethodenkonsequenz durch Konvex-riskminimisierung'' Tong Zhang.
    Statistikannalen, 32(1), 2004.
  • Gokhan Tur, Robert E. Schapire und Dilek Hakkani-Tür.
    Aktivlernen für Hörverstehen.
    In IEEE Internationale Konferenz für Akkustik, Rede und Signale bearbeitung, 2003.
  • Peter Stone, Robert E. Schapire, Michael L. Littman, János A. Csirik und David McAllester.
    Thoretische Prognostizierung für Auktion auf Grund der gelernten  Dichtemodellen in synchronen, interaktiven Auktionen.
    Vorschungmagazin über künstliche Intelligänz, 19:209-242, 2003.
  • Robert E. Schapire.
    Boostingvorteile.
    In Wahrscheinlichkeiten in künstlicher Intelligänz: Stichpunkte der 18. Konferenz, 2002.
  • Robert E. Schapire, Peter Stone, David McAllester, Michael L. Littman und János A. Csirik.
    Rechnen der wahrscheinlichkeit des Preises an Auktion durch Kondinzionaldichte auf Basis von Boosting.
    In Maschinenbau: Stichpunkte der 19. internationalen Konferenz, 2002.
  • Robert E. Schapire, Marie Rochery, Mazin Rahim und Narendra Gupta.
    Gebrauch der früheren kentnissen in Boosting.
    In Maschinenbau: Stichpunkte der 19. internationalen Konferenz, 2002.
  • M. Rochery, R. Schapire, M. Rahim, N. Gupta, G. Riccardi, S. Bangalore, H. Alshawi und S. Douglas.
    Vereiningung der früheren Kentnisse und Boosting für Anrufeklassifikation in mündlicher Rede.
    In Internationale Konferent für Akustik, Rede und Signaleverarbeitung, 2002.
  • Marie Rochery, Robert Schapire, Mazin Rahim und Narendra Gupta.
    BoosTexter für Textkategorisierung in mündlichem Dialoge.
    Gebilligt auf training für Erkennen und verstehen der mündlichen Sprache, 2001 (im nächsten September 11 abgerufen wegen Reisebegrenzungen).
  • Michael Collins, Robert E. Schapire und Yoram Singer.
    Logistikregression, Abstände von AdaBoost und Bregman.
    In Maschinenbau, 48(1/2/3), 2002.
  • Raj D. Iyer, David D. Lewis, Robert E. Schapire, Yoram Singer und Amit Singhal.
    Boosting für Durchgangsdokumentezugbildung.
    In Stichpunkte der 9. internationalen Konferenz für Information- ind Kentnissemanagement, 2000.
  • Erin L. Allwein, Robert E. Schapire und Yoram Singer.
    Reduzierung der Mehrklassenheit zur Binary: Gemeinmethode in Grenzenklassifizierung.
    Journal of Machine Learning Research, 1:113-141, 2000.
  • Robert E. Schapire.
    Treibenspiele.
    In Maschinenbau, 43(3):265-291, 2001.
  • Llew Mason, Jonathan Baxter, Peter Bartlett und Marcus Frean.
    Funktionalgradiententechniken für Hypothesenvereinigung.
    In Vorträge der Großrändeklassifikatoren, MIT Press, 1999.
  • Jerome Friedman, Trevor Hastie und Robert Tibshirani.
    Additive logische Regression: Statistische Hinblick auf Boosting.
    Statistikannalen, 38(2):337-374, April, 2000.
  • Steven Abney und Robert E. Schapire und Yoram Singer.
    Boosting eignet sich für Markieren und PP Anwendung.
    In Stichpunkte SIGDAT Konferenz für empirische Methoden der Verarbeitung von Rede und großen Blocks, 1999.
  • Robert E. Schapire und Yoram Singer.
    BoosTexter: Textkategorisierungsystem auf Basis von Boosting.
    In Maschinenbau, 39(2/3):135-168, 2000.
  • Yoav Freund, Raj Iyer, Robert E. Schapire und Yoram Singer.
    Effektiver Boostingalgorithmus für Entscheidungenkategorisierung.
    Maschinenbauvorschungenmagazin, 4:933-969, 2003.
  • Robert E. Schapire und Yoram Singer.
    Verbessertes Boostingalgorithmus mit Rechnen der Prognosenwahrscheinlichkeit.
    In Maschinenbau, 37(3):297-336, 1999.
  • Robert E. Schapire, Yoram Singer und Amit Singhal.
    Boosting und Rocchio für Textfilter.
    In SIGIR '98: Stichpunkte der 21. jährlichen Konferenz für Vorschungen über Informationentwicklung und Wiederaufbauпо, Seiten215-223, 1998.
  • Llew Mason, Peter Bartlett und Jonathan Baxter
    Direkte Grenzenoptimisierung verbessert die Verallgemeinerung in kombinierten klassifikatoren.
    In Vorträge der Systeme für Neuroninformationverarbeitung 11, Seiten 288-294, 1999.
  • Leo Breiman.
    Ränderberundung.
    Technischer Vortrag 486, Fakultät für Statistik, University of California at Berkeley, 1997.
  • Leo Breiman.
    Prognosierbare Spiele und Arkenklassifikatoren.
    technischer Vortrag 504, Fakultät für Statistik, University of California at Berkeley, 1997.
  • Thomas G. Dietterich.
    Experimentenvergleich von drei Methoden Konstruiren von Entscheidungbäumeensambles: Bagging, boosting, und Randomisation.
    In Maschinenbau, 40(2):139-158, 2000.
  • Adam J. Grove und Dale Schuurmans.
    Boosting in Grenzen: Verbreitung der Grenzen von studierten Ensambles.
    In Stichpunkte der 15. internationalen Konferenz für künstliche Intelligänz, 1998.
  • Robert E. Schapire.
    Gebrauch der Ausgangkoden für Mehrklassenboostingproblemelösung.
    In Maschinenbau: Stichpunkte der 14. internationallen Konferenz, 1997.
  • Robert E. Schapire, Yoav Freund, Peter Bartlett und Wee Sun Lee.
    Grenzenerhöhung: Neue Erklärung der Wirksamkeit von Wahlmethoden.
    Statistikannalen, 26(5):1651-1686, 1998.
  • Leo Breiman.
    Arkenklassifikatoren.
    Statistikannalen, 26(3):801-849, 1998.
  • Eric Bauer und Ron Kohavi.
    Empirischer Vergleich von Algoritmen der Klassifizierung auf Wahlen: Bagging, boosting, und Varianten.
    In Maschinenbau, 36(1/2):105-139, 1999.
  • Holger Schwenk und Yoshua Bengio.
    Methoden der Training von Adaptivboosting von neuronalen Netzwerken für Heldenerkennung.
    In Vorteile der Systeme für Bearbeitung von Neuroninformation 10. Morgan Kaufmann, 1998.
  • Richard Maclin und David Opitz.
    Эмпирическая оценка беггинга и бустинга.
    In Stichpunkte der 14. internationallen Konferez für künstliche Intelligänz, Seiten 546-551, 1997.
  • Yoav Freund und Robert E. Schapire.
    Spieletheorie, on-line Prognostizieren und Boosting.
    In Stichpunkte der 9. internationalen Konferenz für Rechenverarbeitung der Information, Seiten 325-332, 1996.
  • Yoav Freund und Robert E. Schapire.
    Experimenten mit neuem boostingalgorithmus.
    In Maschinenbau: Stichpunkte der 13. internationalen Konferenz, Seiten 148-156, 1996.
  • J. Ross Quinlan.
    Bagging, boosting, и C4.5.
    In Stichpunkte der 14. internationallen Konferez für künstliche Intelligänz, 1996.
  • Harris Drucker und Corinna Cortes.
    Boosting Lösungbäume.
    NIPS'95.
  • Yoav Freund und Robert E. Schapire.
      Vereiningung von Theoretischen Lerntheorien on-line und  Boostinganwendung
    Magazin für Computer - und Systemwissenschaften, 55(1):119-139, 1997.
  • Yoav Freund.
    Das Vermehren eines schwachen Algorithmus mit Mehrheit.
    Information und Computation, 121(2):256-285, 1995.
  • Robert E. Schapire.
    Starke Seiten der schwachen Lehrbarkeit.
    In Maschinenbau, 5(2):197-227, 1990.