Werden die Deutschen immer depressiver?
Laut Medienberichten werden Antidepressiva so häufig verschrieben wie noch nie. Kann man daher davon ausgehen, dass die Menschen in Deutschland immer depressiver werden und die Verschreibung dieser Mittel daher zwingend notwendig ist?
Oder kann es auch sein, dass viele Antidepressiva unnötigerweise verschrieben werden? Welche Erfahrungen und Beobachtungen habt ihr in dieser Hinsicht machen können? Wie erklärt ihr euch die steigende Zahl an Verschreibungen?
Ich könnte mir vorstellen, dass mit dem Thema Depression einfach offener umgegangen wird. Viele trauen sich mittlerweile vielleicht eher wegen dieser Probleme einen Arzt aufzusuchen. Aber man hört ja auch immer wieder, dass die psychischen Erkrankungen immer mehr zunehmen. Dazu gehören Depressionen ja auch. Aber Anti-Depressiver werden ja nicht nur bei Depressionen verschrieben, sondern auch durchaus bei Angsterkrankungen und ähnlichem. Daher ist es sicherlich schwer zu sagen, ob bei den Deutschen die Depressionen zunehmen.
Ähnliche Themen
Weitere interessante Themen
- Woran merkt ihr persönlich, dass ihr älter werdet? 557mal aufgerufen · 8 Antworten · Autor: Prinzessin_90 · Letzter Beitrag von Verbena
Forum: Alltägliches
- Woran merkt ihr persönlich, dass ihr älter werdet?
- In Forenbeiträgen den eigenen Vornamen nennen? 1352mal aufgerufen · 6 Antworten · Autor: Crispin · Letzter Beitrag von fragdenapotheker
Forum: Freizeit & Lifestyle
- In Forenbeiträgen den eigenen Vornamen nennen?
- Aufgrund von Sentimentalität Probleme beim Aussortieren? 416mal aufgerufen · 5 Antworten · Autor: Prinzessin_90 · Letzter Beitrag von Verbena
Forum: Alltägliches
- Aufgrund von Sentimentalität Probleme beim Aussortieren?