amiga-news ENGLISH VERSION
.
Links| Forum| Kommentare| News melden
.
Chat| Umfragen| Newsticker| Archiv
.

amiga-news.de Forum > Amiga, AmigaOS 4 > Amster, WinMX und OpenNap - Um Vorurteile abzubauen [ - Suche - Neue Beiträge - Registrieren - Login - ]

1 -2- [ - Beitrag schreiben - ]

11.10.2001, 14:30 Uhr

Henner
Posts: 204
Nutzer
Zitat:
Original von HAK:
Hi Henner

Zitat:
Drum bringts nicht so viel, Gnutella für Amiga "voll ey zu hypen,
ey" ;-)


Keine Frage. Hypes sind zwar was schönes, nur geht dann meistens der Sinn für das Reale verloren.
Aber da ich dzt. etwas mehr Freizeit habe und sowieso meine C-Kenntnisse auffrischen wollte, dachte ich mir, daß ich es mir mal anschaue (das Gnutella-Protokoll als solches sieht ja sehr einfach aus). Nur kann ich dzt. noch keinen Zeitrahmen bekanntgeben wann etwas lauffähiges rauskommt.


Also wenn wirs haben, ists ja nicht schlecht, aber man muß sich
auch die Situation und die Perspektiven objektiv betrachten und
auch ertragen können (was so Mancher Amiga-User scheinbar nicht
kann), was Breitband und Amiga angeht.

Zitat:
Zitat:
Hast Recht, die Seite habe ich auch noch wo gebookmarked.
Nur das Problem war damals (über Amiga-Browser getestet), daß
ich NICHTS (garnichts) downloaden konnte. Ich hatte das Gefühl,
dieses Interface sollte nur das Angebot demonstrieren, obwohl ja
ansich eine Downloadfunktion klappen sollte, laut Seitenbeschreibung.


Da gibts auch mehrere Seiten und diejenige die ich gefunden habe funktioniert zumindest mit AWeb.


Hatte damals bei mir jedenfalls nicht, Aweb 3.4 und Ibrowse 2.x.

Zitat:
Zitat:
Also was das "Protokoll" angeht, kann es ja verschwenden wie es will,
umso weniger käme es für mich in Betracht :) Aber eben für Amiga-
User ist es mit solch einem Fact doch recht unangenehm, wenn nicht
gar sehr störend. Das habe ich nur den "Beschwörungsformeln" entgegen-
geworfen, die ich las, von wegen "Macht doch nicht wieder neue
Softwarebasen labertechnisch platt, sollen wir doch froh sein, wenn
wir neue Soft bekommen..." etc. Neue Soft und Activity hin/her - was
bringts am Ende, bei solch einer Situation? (Bandbreite, Amiga)


Ja gut, aber wir können uns einfach nicht gegenüber der Außenwelt verschließen und da ist es halt nicht mehr so wie in der guten alten Zeit, daß man noch effektiv und sparsam programmiert (zu welchen Nachteil das führt hat man ja aber beim Y2K-Problem oder AmigaBasic gesehen 8) ).
Mit der gleichen Berechtigung könnte ich dann ja auch behaupten wir brauchen keine Word-Reader auf dem Amiga, da das Format für Text extrem verschwenderisch ist (OK, ich weiß, daß der Vergleich ziemlich hinkt.)


Ich würde nicht so weit gehen, und sowas wie die durch Speichermangel
ausgelöste Sparwut bei Programmierer vor einigen Jahrzehnten, mit
intelligenten, effizienten und damit trafficmindernden Sharing-
prinzipien zu vergleichen.

Man kann sowas programmieren bzw. als Protokoll in die Welt
setzen, daran besteht kein Zweifel, ganz klar. Alleine was
man aus Gnutella machen könnte, würde man es generalüberholen
und all den Trash rauslassen, der unnötigerweise oder in zu massiver
Weise ausgetauscht wird und massig Traffic verursacht.

Davon las ich schon vor einem Jahr, als ich Gnutelle damals auch
ein paar Tage (noch mit Schmalband) testete.


Es muß einfach nicht "dick und fett" sein, um "gut" zu sein.


Zitat:
Zitat:
Denk doch mal so rum: Was ist mit dem Datenverkehr, der verloren
oder verzögert wird, weil eben ein gewisser Teil User eine solche
Login/Logout Usage an den Tag legt?

Das ist für das Gnutella Netz sicher schädlicher, als schlicht nur
keine Files anzubieten.


Hm, guter Einwand. Man müßte dann wirklich einmal genau überlegen, wie/ob sich dies auswirken würde.


Allgemein überlegen, oder bei der tatsächlichen Erstellung Deiner
Varianten? Allgemein ist es ja nicht schwer nachzuvollziehen, was
das die Probleme für die Community verursacht. Was die Überlegung
bei der Programmierung angeht, würde dies nur sich lohnen, gäbe
es einen Ausweg aus dieser Problematik, also keinen "Schaden"
anzurichten, durch diese "Praktik des ein- und ausloggens".

Was gäbe es da? Man müßte das Protokoll bis auf das Letzte aus-
einandernehmen und schaun, daß man kompatibel etwas hinbekommt,
mit dem man an Gnutella teilnehmen kann, andere User nicht durch
Irritation verwirrt/verärgert und gleichzeitig zu seinen Downloads
kommt. Also abgesehen davon, daß es trotzdem unfair :) wäre, so
müßte man "nur" ins Gnutella Netz unentdeckt rein, ohne daß also
jemand "Notiz" (Anfragen, Durchleitung von Datenströhme) nimmt
und man gleichzeitig etwas downloaden kann.

Das geht doch ansich nur, wenn man einen "Wirt" dazwischen setzt,
so wie es über die Web-Gates auf besagten Seiten ja ermöglicht
wurde oder wird. Hat bei mir am Amiga ja nie geklappt, was evtl.
am Browser lag.

Nur sobald mal mit seinem "eigenen CLienten" sich ins Netz einloggt,
hat man doch die Probleme von neuem.

Man müßte vielleicht einen Minibrowser schreiben, der nur diese
Webseiten (Gnutella-Suchmaschinen) unterstützt, aber das ist ja
gänzlich hirnkrank.


Zitat:
Viel "schädlicher" finde ich die ungeduldigen User, die zwei Sekunden nach dem ersten Query noch eines rausschicken, da sie noch keine Antwort erhalten haben und die Arbeitsweise des Gnutella-Netzes nicht mitbekommen.

Sollen sie doch soviele Queries rausschicken, wie sie wollen.
Wäre der Client gut, würde er dies bemerken und alle zus. Queries
ignorieren. Verbliebe nur der Traffic, der dadurch entstünde und
ins Leere verlaufen würde. Dagegen hilft wieder ein guter Client,
der ein zweites mal drücken nicht erlaubt. Aber das wird dann wieder
so unflexibel... arg..


Zitat:
Zitat:
BTW: Ich finde das nicht so gut, daß jeder Client (jeder User) bei
sich Filter installieren kann und so Suchanfragen blockieren oder
nachvollziehen kann.


Das können/konnten sie doch schon immer - und wenn es nur dadurch war, daß sie die Files einfach in ein anderes Directory verschoben haben.


Nein, Du verstehst mich da wohl auch falsch. Ich sprach doch gar nicht
von Files, Directories usw. Ich sprach von den Suchanfragen, also
den Strings, die m.W. nach im Gnutella-Client (Info aus ein Jahr altem
Heise-Backround-Artikel) eingehende Suchanfragen mit diesen Buzzwords
filtern, also nicht an andere Clienten weiterleiten. Somit wird
die Suche nach diversem, wie z.B. Exe-Dateien (etc.) sehr gestört,
wobei sowieso man durch den TTL nicht wirklich alle User mit seiner
Suchanfrage erreicht, vom Traffic dabei ganz zu schweigen. Von der
daraus sich ergebenden Möglichkeit Useranfragen zu loggen, und zwar
als x-beliebiger User, also als hätte man Admin Rechte auf Server-
protokolle der Server-basierten Plattformen, also davon ganz zu
schweigen. Es geht ja nicht ansich um das Loggen ansich, sondern
das dies demnach jeder "Affe" könnte.

Aber ich warte erstmal ab, was Du/ihr mir zu dieser Filterfunktion
sagt, existiert sie denn noch?


--
Henner

[ - Antworten - Zitieren - Direktlink - ]

11.10.2001, 14:45 Uhr

Henner
Posts: 204
Nutzer
>Original von Stefan1200:
>Meine Güte...eure Finger müssen ja schon wund sein ;-)

Geht so :)

> @ Henner:
>
> Klar ist WinMX ein guter Client.
> Aber Amster ist im Vergleich zu vielen PC/Mac Clients ein besserer
> Client.

Ich kenne und nutz(t)e Amster v0.8a selber und kenne es wirklich
sehr gut. Aber gegen WinMX kommt es lediglich in 1-3 Punkten an,
wo die Sound-Events zu nennen wären, die mir wirklich in WinMX
ganz stark fehlen. IRC ohne Sounds für "alles" könnte ich mir auch
nicht vorstellen. Wäre ja wie Zeichensprache nonstop lesen, weil
wenn man "weg guckt" (an was anderes arbeitet), verpaßt man sonst
alles, was z.B. im IRC bzw. im Filesharing so passiert. Alleine
was die Messages angeht, die ich meist nur sehr spät "entdecke",
wenn mir jemand an WinMX was geschrieben hat. Schlimm...

Ansonsten ist Amster einfach zu "unterentwickelt", leider.

> Es gibt nur ein paar Clients die besser sind als Amster.
> Und du darfst nicht vergessen...Amster schreibt die Version 0.8a.
> Leider wird das auch die letzte Version sein, wenn es niemand
> weiterentwickelt.
> Und so sieht es ja bis dato aus.

WinMX z.B. :) Nein, will da nicht so drauf rumharren, aber wie
gesagt...

Ja, Amster 0.8a habe ich auch schon seit ewig in Benutzung, jedes
Update immer sofort mitgemacht und mir ist das mit der momentanen
Zukunft von Amster auch bekannt, da ich ja in der Mailingliste
bin und auch entsprechend mit dem Autor von der Version 0.2 an
schon diskutierte.

Wegen dieser Zukunft von Amster, mit deswegen, bin ich ja nun auch
bei WinMX. Aber da sind dessen Funktionen natürlich noch, die
Amster wirklich in den Schatten stellen. Aber lassen wir das
Getratsche von PC-Software :)

> Was die Amster Meldung angeht: Es bedeutet halt, das Amster deinen
> Namen nochmal registrieren will, obwohl du das ja beim ersten Mal ja
> schon gemacht hast.
> Und deshalb kann man es in den Einstellungen abschalten, wenn man
> schon auf allen Servern, die man nutzen möchte, registriert ist.
> Schliesslich ist dann diese Funktion erstmal unnötig.

Jo, schrieb ich doch, daß hier scheinbar zwei Varianten
diskussionstechnisch im Umlauf waren. Einmal die des bereits
registrierten Usernamens (fest registriert) und dann die Sache
mit dem eigenen Usernamen, der noch temporär auf dem Server als
eingeloggt gilt, weil man sich nicht ordentlich vom Server gemacht
hat. Nach Crashes z.B. nervt das ziemlich, weil die Server so lange
Time-Out-Zeiten haben, bis die mal den User, der man zuvor ja war
und der ja garnicht mehr verbunden ist, endlich runner kicken.

> Was mich interessieren würde, ist ein AudioGalaxy Client.
> Ich habe mir auch sagen lassen, das die Teile relativ einfach zu
> programmieren sind, da fast alles übers Netz abläuft, und nicht
> übern Client.

Jo, da ist die Industrie doch schon dran am knabbern, siehe
allgemeine Tickermeldungen :)

Ich habe mir Audiogalaxy mal angesehen und mag das komische
Prinzip schon garnnicht. Dann lieber Gnutella :)

Also Plattformen, die per rechtsgültiger Firma in einem
problematischen Land stationiert existieren, die sind nicht
wirklich zukunftssicher. Weil irgendwann klagt sich da die
Industrie bei dem ersten Ansprechpartner durch, das wäre
die Company, wer auch immer das bei Audiogalaxy ist, so gut
kenne ich Audiogalaxy gar nicht.

--
Henner

[ Dieser Beitrag wurde von Henner am 11.10.2001 editiert. ]

[ - Antworten - Zitieren - Direktlink - ]

11.10.2001, 18:20 Uhr

HAK
Posts: 85
Nutzer
Hi Henner,


Zitat:
Also wenn wirs haben, ists ja nicht schlecht, aber man muß sich auch die Situation und die Perspektiven objektiv betrachten
und auch ertragen können (was so Mancher Amiga-User scheinbar nicht kann), was Breitband und Amiga angeht.


Wie gesagt, es ist ein Projekt für mich (OK, habe jemanden gefunden, der sich ebenfalls dafür interessiert
und mit dem ich jetzt zusammenarbeite (Hi nylan)) und es ist mir einfach zu umständlich, immer erst Linux zu booten,
damit ich den dortigen Gnutella-Servent starten kann.

Ich hoffe nur, daß die User mit geringer Bandbreite dann nicht zu mir kommen und eine DSL-Leitung von mir verlangen. :)


Zitat:
Alleine was man aus Gnutella machen könnte, würde man es generalüberholen und all den Trash rauslassen, der unnötigerweise
oder in zu massiver Weise ausgetauscht wird und massig Traffic verursacht.

Das Gnutella-Protokoll, welches im Umlauf ist war die Version 0.4 welche nie für den großen Einsatz geplant war, abgesehen
davon gibt es durchaus Bestrebungen, das Protokoll zu modifizieren, damit die Übertragung effektiver vor sich geht


Zitat:
Was die Überlegung bei der Programmierung angeht, würde dies nur sich lohnen, gäbe es einen Ausweg aus dieser Problematik,
also keinen "Schaden" anzurichten, durch diese "Praktik des ein- und ausloggens".

Hm, ich bin mir nicht sicher, ob ich meinen Vorschlag klar ausgeführt habe.
Ich kann jedenfalls keinen "Schaden" erkennen - abgesehen davon, daß ich das Netz nur für Downloads ausnutze, was aber dem
entsprechen würde als wenn ich bei meinem Servent einfach keine Files bereitstelle.

Die Trennung von Protokoll- und Transferebene ist ja von Haus aus gegeben.
Was würde passieren:
1.) Einloggen ins Gnutella-Netz (als Egoist natürlich ohne Files bereitzustellen. ;) )
2.) Suche nach gewünschten Files (solange bin ich nur "Durchreichstation", da ich ja nichts anbiete)
3.) Starten des Downloads (als eigener Task welcher direkt mittels HTTP-Protokoll mit dem Anbieter erfolgt)
4.) Ausloggen aus Gnutella-Netz (daß ich immer noch den Download durchführe ist eine andere Sache).

Natürlich kann ich auch Files anbieten (wenn die von jemanden gewünscht werden wird dieser Transfer ebenfalls fortgeführt
- unabhängig davon, ob ich noch im Gnutella-Netz bin oder nicht). - Sollte man der Fairness halber auch so machen.


Zitat:
Ich sprach von den Suchanfragen, also den Strings, die m.W. nach im Gnutella-Client (Info aus ein Jahr altem Heise-Backround-Artikel)
eingehende Suchanfragen mit diesen Buzzwords filtern, also nicht an andere Clienten weiterleiten. Somit wird die Suche nach diversem,
wie z.B. Exe-Dateien (etc.) sehr gestört, wobei sowieso man durch den TTL nicht wirklich alle User mit seiner Suchanfrage erreicht

Nein, das wußte ich nicht, den Heise-Artikel kenne ich leider nicht.
Dies ist aber ein "Problem" des Clients und nicht von Gnutella als solches. Wenn jetzt jemand so etwas in seinen Servent
einprogrammiert hat, kannst du das nicht dem Protokoll anlasten.
Sonst könnte ich genauso gut behaupten, daß ich nichts von Open-Nap halte, weil da *eine* Person ist, die den Server so mit Filtern
konfiguriert hat (zumindest könnte der Betreiber des Serves es), wie es ihm gefällt (natürlich kannst du dich in mehreren Servern
einloggen, aber das kannst du bei Gnutella ja auch).


Zitat:
Aber ich warte erstmal ab, was Du/ihr mir zu dieser Filterfunktion sagt, existiert sie denn noch?
Da ich den Sourcecode der anderen Servents nicht kenne, kann ich dazu nichst sagen - aber du weißt ja auch nicht, ob
nicht der Betreiber des Open-Nap-Serverst dasselbe macht. 8o


Ach ja, was deine Bemerkung - in deinem anderen Kommentar - bezüglich Bekanntmachung des Suchstrings betrifft (halbe Internetgemeinde
oder so...)
In gnut (das ist der Servent den ich unter Linux verwende) gibt es eine MONITOR-Funktion, mit der ich die Suchstrings die mein
Servent erhält ansehen kann (ohne dazugehörige IP-Adresse, was aber kein großes Problem wäre, dies einzubauen).
Die Datenmenge, die daherkommt ist einfach so groß, das es eigentlich uninteressant sein sollte, so etwas mit einer
bestimmten Person abzugleichen.
Wenn jemand an deinen Daten interessiert ist, dann hängt er sich garantiert früher in deine Verbindung und macht sich
nicht die Mühe aus dem Wust an Daten sich gerade deine rauszufiltern.

[ - Antworten - Zitieren - Direktlink - ]

12.10.2001, 02:40 Uhr

Holger
Posts: 8116
Nutzer
Zitat:
Original von Henner:
> Original von Holger:
> Richtig und man sollte auch daran denken, daß es auf einem 68000
> mit 7MHz und 512 kB noch ordentlich laufen muß.

Ha ha ;) (ich gehe davon aus, daß Du das keinesfalls ernst meinst)

Natürlich nicht. Aber um das Thema endgültig abzuschließen:
Es war mit jeder Weiterentwicklung (Gfx, PPC, etc.) so:
Wenn keine Software existiert, die es ausnutzt, wird auch kein User motiviert, sein System aufzurüsten. Und wenn wir nicht beim A500 kleben bleiben wollen, sollte man nicht Entwickler abschrecken, die mal etwas resourcenhungrigere SW entwickeln wollen.
Zitat:
Wer massive ("geplante") Abbrüche und die damit zusammenhängenden
Zeitverluste durch die Arbeit vorm Rechner mit Resumen kategorisch
verteidigt, hat ganz orgendlich was nicht begriffen!

Ich verteidige hier gar nichts. Ich habe nur festgestellt, daß der Schaden, den ein einzelne User anrichten kann, minimal ist. Ich tausche nicht Daten mit einem User, sondern tausenden. Und wenn ein Download abbricht, klicke ich auf Resume und einer der vorher gefundene Rechner antwortet und liefert den Rest. Man kann sich natürlich über diesen einen erzwungenen Klick ärgern, oder auch nicht.
Zitat:
3. Nochmal zu meinem letzten Satz oben: Wenn jemand schlicht nur
keine Files anbietet, weil er keine Bandbreite oder Zeit usw.
hat, dann ist er praktisch (also "fast") unsichtbar für die User,
denn niemand sollte Notiz von seiner Anwesenheit nehmen, zumindest
bei serverbasierten Systemen. Bei Gnutella würden solche User ja
den Traffic erhöhen, schlicht durch ihre Anwesenheit, aber lassen
wir das.

Wenn ein User nichts anbietet, aber files downloaded, bemerke ich das schon. Wenn er beides nicht tut, ist der Traffic auch bei Gnutella minimal, da ich die Anzahl der zu erhaltenen Connections in Abhängigkeit zu meiner Bandbreite konfiguriere, nicht zur Anzahl der User. Evtl. ein paar Pings mehr, aber ich opfere gern ein wenig Bandbreite, wenn ich dafür nicht von hoffnungslos überlasteten Servern abhängig bin.
Zitat:
Das würde bedeuten, daß beim Prinzip von Gnutella alle Suchanfragen
nur so weit kämen (vom TTL ganz zu schweigen), wie es die User durch
ihre Wortfilter zulassen. Ganz zu schweigen von deren Möglichkeit
auf Eingang einer Suchanfrage zu speziellen Themen automatisiert
zu loggen.

Der unverschlüsselte Datenverkehr im Internet kann zu jeder Zeit von tausenden Menschen geloggt werden. Die Möglichkeit, verwertbare Informationen aus dieser unbeherrschbaren Datenmenge zu ziehen, wird meist überschätzt.
Die Suchanfragen dagegen gehen ja mit Absicht über mehr als einen Rechner. Der Einfluß eines einzelnen ist auch hier eher gering. Natürlich trotzdem vorhanden; ich persönlich ziehe es vor, ein paar Spinner filtern zu lassen und trotzdem tausende von vernüftigen Servants zu haben, als mich der Gnade eines einzelnen Admins auszuliefern.
Zitat:
Ohje, es ist doch wohl Fakt, daß nach deutschem Recht
legale Software - darunter zählt eine ganze Menge - für einen
deutschen User legal downloadbar ist, egal ob seine IP wo geloggt
ist. Da können die Amis sich mit ihrem eigenwilligen Kopierrechten
auf den Kopf stellen, ich bin schließlich in Deutschland und
Deutscher, kein Ami in USA, der derem Digital Trash Right unterliegt.
(Ich rede nicht von z.B. geschützten Programmen!)

Davon ab geht es um "Tauschbörsen", bei denen User gegenseitig
privat etwas tauschen, unentgeltlich. Das ist legal, vorallem
in Deutschland und damit basta. Mir echt egal, was ein Ami denkt.
Von dem übertriebenen Urheberrecht dort ganz zu schweigen, daß
ansich sofort abgeschafft gehört, also in seiner Konsequenz.
(Allgemeines Urheberrecht ist natürlich nicht damit gemeint)

Das massive Tauschen über das Internet ist nicht gleichzusetzen mit der in D erlaubten Weitergabe an Freunde/Bekannte etc. Es ist eher mit einer Veröffentlichung gleichzusetzen (_Upload_, der Download ist legal, richtig). Da sollte man sich nicht irgendwelchen Illusionen hingeben. Abgesehen davon existieren internationale Verträge, die es durchaus einem "geschädigten Amerikaner" (Plattenfirma) erlauben, einen Europäer (Dich) nach dem "für die betroffene Sache geltendem" (amerikanischem) Recht zu verklagen.
Zitat:
Ein Beispiel ist ja schon folgender Humbug, daß einerseits
die Industrie Kopierschutz für Audio-CDs etablieren wollen,
die dem Käufer zudem viele Probleme beim Abspielen bereiten,
aber andererseits von z.B. CD-Writer-Hersteller eine Abgabe
an die Rechte-Verwerter verlangen. Sowas von Geldgier hoch 3..

Du mußt auch GEZ-Gebühren bezahlen, wenn Du nie öffentlich-rechtliche ansiehst. Oder nur Video's. Es werden auch GEMA-Gebühren auf Fotokopierer erhoben, trotzdem ist das Kopieren von Büchern/Zeitschriften illegal. Die Gebühren sind nur für die explizit erlaubten Ausnahmen (Lehr- u. Forschungszwecke, Absicherung des Rechts auf Informationsfreiheit) vorgesehen.
Zitat:
Mit letzteren Absätzen will ich sagen, daß die Musikindustrie
die Filesharingplattformen nicht bekämpfen kann, deren Logs
nicht existieren, deren Betreiber nicht auffindbar oder nicht
anklagbar sind (rein profilaktisch :) und vorallem, bei den
Datentransfers nicht schnüffeln kann, die privat zwischen Usern,
möglichst noch verschlüsselt stattfinden, welches nicht über ein
zentrales Netz geroutet wird.

Die Welt ist nicht so groß. Und wenn die Suchanfragen über einen von gewissen Leuten gekaperten Server laufen, merkt erst mal niemand einen Unterschied.
Zitat:
(Ich glaube kaum, daß ich als Deutscher mit Recht auf privatem
Tausch von dies und jenem (Musik etc.), von Sony per IP ausfindig
gemacht und dann verklagt werde, das wird niemals kommen)

Verlaß Dich nicht drauf.
Außerdem kommt ja jetzt das neue "tolle" europäische Recht.
Zitat:
Die Legalität dieser über Server gerouteten Daten setze ich vorraus, aber bei Prinzipien wie Gnutella siehts doch schon anders aus, nur
fehlt mir da die Verschlüsselung und ist mir der Traffic aus Prinzip
(meine private Meinung) zu hoch.

Mich würde mal interessieren, gegenüber wem eigentlich die Verschlüsselung wirken soll. Erst mal mußt Du Deine Suchanfrage immer für den anderen lesbar schicken und was nützt die verschlüsselte Datenübertragung, wenn Du überhaupt nicht weißt, wer auf der anderen Seite sitzt ?
Zitat:
> Es zeigt sowieso von einem sehr getrübten Urteilsvermögen, eine
> technische Machbarkeit bei dem einen Protokoll mit der von Dir
> vermuteten Handlungsweise der Betreiber eines anderen Protokolls zu
> vergleichen, zumal Du ja selbst erkennst, daß technische Machbarkeit
> bei server-basierten Protokollen noch viel höher ist.

Ähhm? ..muß mich sammeln, verstehe gerade nichts.. <mhmm>

Die technische Machbarkeit: Filter im Gnutella-Client installieren
Die vermutete Handlungsweise: "Napster-Serverbetreiber machen sowas nicht"
[/quote]

mfg

--

Good coders do not comment. What was hard to write should be hard to read too.

[ - Antworten - Zitieren - Direktlink - ]

12.10.2001, 07:40 Uhr

Henner
Posts: 204
Nutzer
@HAK: Auf Dein Posting antworte ich, wenns nötig ist, erst morgen.

@Holger: Siehe unten, unter den Heise-Links hier folgend.


Für Holger und HAK (und für jeden anderen) hier mal die Heise-
Artikel von Juni 2000, die es scheinbar nicht mehr bei Heise
zu finden gibt, aber ich mal auf meinen Server lud und man sie
für ein paar Tage (1-2 Wochen) im Rahmen dieser Diskussion
nachlesen kann.

Dort steht auch entsprechend was zu den String-Filtern und
zu den (damalig) aktuellen Clients, die genau beschrieben wurden,
aber auch die Prinzipien von "Napster" und Gutella sehr detailiert
und bis ins Detail erklärt werden. Lange Artikel! ;-)

Also:

Schöner tauschen:
Erster Teil: Napster und seine Freunde (42 kb)
http://www.henner.puderbach.de.vu/1Napster.htm


Zweiter Teil: Napsters Konkurrenten - zentralisierte Tauschbörsen (34 kb)
http://www.henner.puderbach.de.vu/2Napsters.htm


Führerlos: Gnutella, FreeNet, Jungle Monkey & Co (88 kb)
http://www.henner.puderbach.de.vu/3Gnutella.htm


(C) Heinz Heise (Juni bis August 2000) - Autor: Erik Müller


@Holger

>>> Original von Holger:
>>>
>>> Richtig und man sollte auch daran denken, daß es auf einem 68000
>>> mit 7MHz und 512 kB noch ordentlich laufen muß.
>>
>> Original von Henner:
>>
>> Ha ha ;) (ich gehe davon aus, daß Du das keinesfalls ernst meinst)
>
>Original von Holger:
>
> Natürlich nicht. Aber um das Thema endgültig abzuschließen:
> Es war mit jeder Weiterentwicklung (Gfx, PPC, etc.) so:
> Wenn keine Software existiert, die es ausnutzt, wird auch kein User
> motiviert, sein System aufzurüsten. Und wenn wir nicht beim A500
> kleben bleiben wollen, sollte man nicht Entwickler abschrecken, die
> mal etwas resourcenhungrigere SW entwickeln wollen.

Mir ist dieses Problem bewußt, habe diesbezüglich jedoch nichts
gemeint.

Bandbreite möchte doch schließlich jeder von uns und egal welches
Computersystem, ein jeder von uns macht sich, Erfahrung vorausgesetzt,
doch genügend Gedanken zum Thema "Resourcenverschwendung", weshalb
man z.B. am PC nicht Mirabilis' ICQ nutzt, sondern Miranda ICQ,
oder statt Notepad, ein entsprechendes Equivalent, oder statt
dem Internet Explorer, Opera. (Von der Amiga-Ebene ganz zu schweigen)

Daher kann man doch sehr wohl etwas ablehnen, weil es in der
derzeitigen Form einfach viel zu viel Resourcen verschwendet, wie
es bei Gnutella im Übermaß geschieht, wie man in den oben gelinkten
Artikeln vom Juni 2000 (Copyright by Heise) nachlesen kann.
Auch was die Ping- und Pongerei angeht. Das hätte so damals garnicht
in die Veröffentlichung gehen dürfen, aber die ganze Story dazu
kann man in den erwähnten Artikeln komplett nachlesen.

--------

>> Wer massive ("geplante") Abbrüche und die damit zusammenhängenden
>> Zeitverluste durch die Arbeit vorm Rechner mit Resumen kategorisch
>> verteidigt, hat ganz orgendlich was nicht begriffen!
>
> Ich verteidige hier gar nichts. Ich habe nur festgestellt, daß der
> Schaden, den ein einzelne User anrichten kann, minimal ist. Ich
> tausche nicht Daten mit einem User, sondern tausenden. Und wenn ein
> Download abbricht, klicke ich auf Resume und einer der vorher
> gefundene Rechner antwortet und liefert den Rest. Man kann sich
> natürlich über diesen einen erzwungenen Klick ärgern, oder auch
> nicht.

Das Problem stellt sich doch viel mehr in der Ineffizienz, die durch
Abbrüche ergeben. Man muß immer dabei sein, zum Resumen, wenn man
denn noch jemanden findet, der gerade zu dem Zeitpunkt einen freien
Slot hat. Nur einfach Resumen ist einfach, aber die Praxis sieht
anders aus.

Nur ich meinte reine Abbrüche ja nichtmal im Kern, sondern die
Problematik des Datenverkehrs, der dadurch gestört würde, wenn
User sich nur kurz anmelden (sich einklinken, Gnutella), um
Daten zu suchen und sich sofort wieder ausklinken, wenn sie über
das Transferprotokoll sich die Daten ziehen.


A. Der User hat durch das einloggen in Gnutella sich dem "Netz"
zu erkennen gegeben, was eine irgendwie hohe (keine Ahnung :)
menge an Daten von Servent zu Servent schicken läßt.

Sowie, da man ja nur sehr kurz eingeloggt ist, trägt man zu einer
Verschleppung oder gar "Vernichtung" von Datenpacketen bei,
die man evtl. killt, weil sie an einen addressiert waren, man sie
laut TTL noch hätte weiter transportieren sollen, aber dann
vielleicht genau an meinem Hop verloren gehen, sodenn das möglich
ist. Dieser Fall klingt unwichtig, aber da man viel häufiger als ein
echter User sich wieder ausloggt, häufen sich diese "Situationen"
und das mit einer "Menge" von Usern multipliziert, ergibt bitte
was am Ende? Ok, solange nur 0.001 % (Amiga-User ;-) dafür verant-
wortlich sind, mags ja echt keinen interessieren, aber wenn das
mal 20% darstellen sollten (ein PC-Client solche Faxen machen
sollte), dann wird das zu einem offenen oder versteckten Ärgernis.

Genauso wie mit den Pings/Pongs, von denen wohl auch nahezu kein
Gnutella-User jemals was gehört hat, was deren Servants da für
einen Trash-Traffic diesbezüglich erzeugen, weil das Protokoll
so unvollkommen ist, da es (damals) nicht weiter entwickelt wurde.

B. Die Pings und Pongs, wie eben schon erwähnt, werden mehr, je
nachdem wieviele Servants drin sind, ganz normaler proportionaler
oder vielleicht sogar (dann aber aua!) überproportionaler Anstieg
der Ping/Pong-Aufkommens. Das ist Traffic und nicht zu knapp,
da das Protokoll dort wirkliche Traffic-Schwächen hat, extreme.

C. Der TTL wird torpediert, da durch sein nur kurzes Erscheinen
auf Gnutella je nach Anzahl solcher User mit dieser "Usage",
im Ganzen die TTL sinkt, weil Daten wo nicht weitergeleitet
werden, weil im Gegensatz zum Prinzip, wie es mal gedacht war,
der User nicht "online" bleibt, sondern sofort wieder geht.

D. Evtl. noch mehr, worüber ich mir jetzt am morgen aber nicht
die Birne zermartern möchte :)


Man denke nur mal an die evtl. kommende Zukunft, wo wir doch noch
nur noch nach Volumen bezahlen können, weil die Provider merken,
daß sie nur noch von der steigenden Anzahl der "Power-User" (Hach,
das erinnert mich an vergangene Themen ;-) ) ausgenutzt werden.
Man sehe sich alleine mal meine 20 gigs in 2 Wochen an, bei 768er
DSL! Hätte ich einige MBITs, au backe.. Zum Glück werde ich
generell immer mehr am Download durch meine HDs und geringen Mengen
an CDRs gehindert ;-) <grins>

--------

>> 3. Nochmal zu meinem letzten Satz oben: Wenn jemand schlicht nur
>> keine Files anbietet, weil er keine Bandbreite oder Zeit usw.
>> hat, dann ist er praktisch (also "fast") unsichtbar für die User,
>> denn niemand sollte Notiz von seiner Anwesenheit nehmen, zumindest
>> bei serverbasierten Systemen. Bei Gnutella würden solche User ja
>> den Traffic erhöhen, schlicht durch ihre Anwesenheit, aber lassen
>> wir das.
>
> Wenn ein User nichts anbietet, aber files downloaded, bemerke ich
> das schon.

Meinst Du jetzt Gnutella?

Also bei OpenNap (Napster-Protokoll) kann man ansich nur sagen,
daß User, die nur Downloaden, lediglich den Login-Slot auf dem
jeweiligen Server belegt. Aber so egoistisch sollte niemand sein,
so radikal an die Sache ran zu gehen. Jeder hat das Recht auf
einen Slot auf einem Server und pro Netzwerk gibt es in den
meisten Fällen ganz viele Server die jeweils ein bestimmtes
Maximum an Usern haben. Es sollte also wirklich kein Problem sein,
auf einen Server drauf zu kommen, geschweige sich anschließend
(bei Nichterfolg) über besagte Personen zu beschweren, die einem
angeblich "den Platz wegnehmen".

Bei Gnutella wirkt sich das in jedem Fall anders aus, da ein
eingeloggter User entweder für kurz (HAK's Methode), oder wenn er
verbleibt (normale Methode), für eine Erhhöhung des Traffics bei
sich, im Internet (hehe, ja ja) und eben auf dem Netz des File-
sharingprotokolls sorgt, wo die Pings und Pongs und all der andere
Kram durch die bloße Anwesenheit enorm durch die Gegend geschaufelt
werden. Man kann sagen, der Hop mehr, den man für all diese Daten
darstellt, bräuchte nicht zu sein, weil man ja nicht wirklich an
diesem System partizipieren möchte. So und auf anderer, bereits
beschriebende und unbeschriebene Weise meine ich das "torpedieren".

--------

> Wenn er beides nicht tut, ist der Traffic auch bei
> Gnutella minimal, da ich die Anzahl der zu erhaltenen Connections
> in Abhängigkeit zu meiner Bandbreite konfiguriere, nicht zur Anzahl
> der User. Evtl. ein paar Pings mehr,

Nein, siehe oben und vorher Gesagtem.
1. Die Pings/Pongs sind massiv (aktuelle Daten weiß ich nicht)
2. Evtl. wird der TTL durch die Masse solcher "Usages" (in/out) verändert
3. Egal was man für seine Bandbreite einstellt, Anzahl der Connections,
maximale TTL usw., man ist ein Glied in einer Kette, deren Traffic
sich erhöht, evtl. sogar überproportional (Schneeballeffekt, TTL,
alle Datenströhme, Suchanfragen, Ping/Pongs)

--------

> Evtl. ein paar Pings mehr, aber ich opfere gern ein wenig
> Bandbreite, wenn ich dafür nicht von hoffnungslos überlasteten
> Servern abhängig bin.

Die Bereitschaft für etwas derartiges Bandbreite zu opfern, möchte
ich wieder etwas exitisch mit dem Spritverbrauch eines sagen wir
mal eines Porsche (o.ä.) vergleichen, der statt 5-10 Liter, eben
20 oder mehr verbraucht.

Da gibt es natürlich Menschen, denen das "scheiß egal" ist.
Aber ist das der richtige Weg?

Die Umwelt und deren "Zerstörung" ist relativ gut mit der Belastung
des Internets zu vergleichen. Denk mal drüber nach.

(Auch wenn obiges lächerlich klingen mag, aber man muß es schon im
Gesamten betrachten und wenn man ständig nur denkt, ach was macht
es schon aus, in diesem einen Fall, dann führt das letztlich in
dieselbe Richtung, als würde man beim Thema Umwelt bei jeder Ladung
Sondermüll ebenso denken. Eine Ladung im Baggersee macht ja nix,
weltweit betrachtet, aber lasse das mal mehr und mehr Leute machen...)

(So langsam fangen wir an zu philosophieren, äh :)

--------

>> Das würde bedeuten, daß beim Prinzip von Gnutella alle Suchanfragen
>> nur so weit kämen (vom TTL ganz zu schweigen), wie es die User
>> durch ihre Wortfilter zulassen. Ganz zu schweigen von deren
>> Möglichkeit auf Eingang einer Suchanfrage zu speziellen Themen
>> automatisiert zu loggen.
>
> Der unverschlüsselte Datenverkehr im Internet kann zu jeder Zeit von
> tausenden Menschen geloggt werden. Die Möglichkeit, verwertbare
> Informationen aus dieser unbeherrschbaren Datenmenge zu ziehen, wird
> meist überschätzt.

Dann sag das mal den Geheimdiensten, oder schlicht dem nächstbesten
Provider. (Abgesehen von deren Speicherkapazität, aufgrund der vieles
hier und da schon nach Stunden oder eben nach wenigen Tagen gelöscht
wird, Statistiken/Logs meine ich)

Was ich aber bei Gnutella im Gegensatz zu serverbasierten Systemen
so blöd finde (rein theoretisch), ist eben die Möglichkeit der
Filterung von Strings bei einzelnen Usern und weil ja laut Protokoll
die Suchanfragen fast jeden User erreichen, wäre auch die
automatisierte Protkollierung von Quelle, Ziel, Suchanfrage möglich,
die aber nun wirklich nichts irrealistisches darstellt, sondern
im Grunde so einfach und "kostengünstig" machbar ist, daß sicher
nicht nur die Musikindustrie bestehende Filesharingplattformen
so hat nach Titeln abchecken lassen (und tuts noch), sondern da sind
oder KÖNNEN SEIN - sicherlich auch Behörden und Geheimdienste.

Daß die Polizei so langsam im Netz ist (wie momentan schnarchlahm
auch immer), sollte niemandem entgangen sein. Das die USA da wohl
viel stärker aktiv sind, als es Deutschland bereits ist, sollte
auch jedem einleuchten und daß es Echelon und diverse andere
Abhörsysteme gibt, sollte mittlerweile auch jeder von uns wissen.
Wieso ist es also so irrealistisch oder "unmöglich", daß jemand
als schlichter User (einfach einloggen) anfängt zu loggen, weil
es im das Share-Protokoll so besonders einfach macht? (Egal ob
Privatuser mit Rechtsneurose oder Behörde, die es sich leicht machen
möchte)

--------

> Die Suchanfragen dagegen gehen ja mit Absicht über mehr als einen
> Rechner. Der Einfluß eines einzelnen ist auch hier eher gering.

Mhm? Die Suchanfragen werden überall hin geschickt, sonst gäbe
das doch gar kein Sinn, etwas zu suchen. Gnutella basiert doch
darauf, daß die Suchanfragen an die User geschickt werden und wenn
ein Client nen Hit hat, sagt er "Hi, Iam here ;-) (Knapp gesagt)

Also wo ist da der Einfluß jedes einzelnen denn gering, der die Daten
abfangen und darauf antworten kann? Man braucht doch nur einen
Clienten, der gezielt solche Anfragen beantwortet, die gewisses zum
Inhalt haben und wenn dann ein Downloadversuch stattfindet, wird der
Vorgang gelogged... Programmieren können Behörden schon lange ;)

Und wenn das eben jeder Furzuser kann, statt der Admin oder sonstige
Person mit Zugriff zum Server, dann mißfällt mir das enorm.

Da wäre ja noch das Theme Verschlüsselung, aber dazu unten und
auch in obig stehenden Heise-Links mehr.

--------

> Natürlich trotzdem vorhanden; ich persönlich ziehe es vor, ein paar
> Spinner filtern zu lassen und trotzdem tausende von vernüftigen
> Servants zu haben, als mich der Gnade eines einzelnen Admins
> auszuliefern.

Wie oben schon geschrieben, verhält sich jeder "Spinner der filtert"
wie ein stehengebliebener Domino-Stein, der den "Schneeballeffekt"
zu einem Teil behindert, der an diesen Punkt noch klein ist, aber
betrachtet man die Servents/Hosts, die diese Datenpakete danach
noch hätten - wie in einer Domino-Pyramide - erreichen müssen,
dann stellt man ganz schnell fest (sodenn ich Recht habe, alles
noch Theorie aus bestehendem Wissen über dem Protokoll), stellt man
fest, daß der angegebene TTL entsprechend geringer ausfällt und
allgemein einfach Datenpakete, die schneeballartig verteilt werden
sollten, an einigen Stellen hängen bleiben, was eben "erheblichere"
Auswirkungen hat, als wenn nur die Verbindung zu einer einzelnen
IP gestört wäre.

Wäre das nur ein User, ok, aber der ist im Netzwerk integriert und
filtert er, filtert er ein größeres Stück des Netzes, als es ansich
nur den Anschein hat. Und je mehr Personen filtern, desto "löchriger"
wird das Netz.


Lieg ich bei irgendwas falsch, bitte aufklären, aber so funktioniert
schließlich das Gnutella-Protokoll und darauf basieren meine Schluß-
folgerungen.

--------

> Das massive Tauschen über das Internet ist nicht gleichzusetzen mit
> der in D erlaubten Weitergabe an Freunde/Bekannte etc.

Doch, das ist es. Man gibt es privat weiter, ohne Gebühren zu
erheben, oder die Daten an den Pranger zu hängen (für zu werben).

Letzterer Punkt ist ein Knackpunkt, da könnte man ansetzen und
behaupten, die Filelisten, die man den Servern hochlädt, die
beinhalten doch eine "Veröffentlichung"... Aber das ist ein
rechtliches Problem, für dessen restlose Klärung ich nun absolut
nicht zuständig bin.

--------

> Es ist eher
> mit einer Veröffentlichung gleichzusetzen (_Upload_, der Download
> ist legal, richtig).

Achso, schriebst Du ja. Ok, sind wir uns diesbezüglich also einig.

Wenn man nun denkt, es würde ja immer "eine Veröffentlichung"
von Sammlungen entstehen (selbst das melden "Hi Host, ich habe
die Datei die Du suchst" könnte man mutigerweise darunter zählen),
wie sonst würde dann der "Austausch" von statten gehen?

Gute Frage, diesbezüglich war in den ganz oben aufgeführen
Artikeln (Heise) auch von ich glaube "Freenet" (nicht Mobilcom :)
die Rede, mit dem verschlüsselt Dateifragmente (!) ausgetauscht
werden, jemand also nie eine komplette Datei an einem Stück und
vorallem nicht lesbar hat. Denn bei diesem System mußte/konnte
man einen Teil seiner Festplatte als "Cache" zur Verfügung stellen,
wo dann verschlüsselt diese Fragmente lagern. Eine Suchmaschine
gabs in den Anfängen dieses Programms nicht, man mußte immer den
Kompletten Dateinamen eingeben, äh ich bin mir gerade nicht so
sicher, ob es bei Freenet auch "Dateifragmente" waren... Egal,
auf jeden Fall wußte man nie, was woher kam und selbst der User
mit seinem bspw. 1 gb Cache auf der eigenen Platte, wüßte NICHT
was er darauf hat. Genaueres - es ist schon nen Jahr her, daß ich
mich über Freenet informierte, kann man in einem der drei Artikel
(anfang dieses Postings) nachlesen. Glaube im dritten Artikel.

Jedenfalls wäre es bei dieser Art des Filesharings so, daß die
Dateien nicht "feilgeboten" werden, sondern schlicht wo lagern.

Mir klang das damals aber schon zu kompliziert :) Davon ab soll
im Laufe der Zeit da auch die Suche nach Files durch spezielle
Suchmachinen (Web) bzw. anfangs noch einfache "Listen" (anonym)
machbar geworden sein. Heute könnte das evtl. schon der Client,
wenn das wiederum nicht gegen die Problematik des "Feilbietens"
von Daten verstößt, womit man ja einen Punkt erzeugt, an dem
man rechtlich die Brechstange ansetzen könnte, so wie die File-
listen, die man beim Napster-Protokoll an die Server überträgt
und damit ansich ja schon "Werbung" macht und je nachdem wie es
Richter sehen mögen, könnten die dann zum Schluß kommen, daß
dies nichts mehr mit privatem Tausch zu tun hat.


Davon ab stehe ich voll hinter meiner Meinung, daß sowas, egal
wie die Daten laufen (Peer2Peer etc.), einen Privattausch darstellen
und nichts weiter. Komme mir nen Ami, wie er will.

--------

> Da sollte man sich nicht irgendwelchen
> Illusionen hingeben. Abgesehen davon existieren internationale
> Verträge, die es durchaus einem "geschädigten Amerikaner"
> (Plattenfirma) erlauben, einen Europäer (Dich) nach dem "für die
> betroffene Sache geltendem" (amerikanischem) Recht zu verklagen.

Wie eben geschrieben, soll er es ja schön versuchen. Er klagt
sich dumm und dämlich, kriegt nicht einen Pfennig von mir und hat
"wahrscheinlich" nicht mal Erfolg bei dieser Aktion, so wie ICH
die Gesetze für mich als Deutschen einschätze.

(Wobei ich für "Quereinsteiger" hier im Forum sagen muß, daß ich
von ansich legalen Daten spreche, öhem ;-)

--------

>> Ein Beispiel ist ja schon folgender Humbug, daß einerseits
>> die Industrie Kopierschutz für Audio-CDs etablieren wollen,
>> die dem Käufer zudem viele Probleme beim Abspielen bereiten,
>> aber andererseits von z.B. CD-Writer-Hersteller eine Abgabe
>> an die Rechte-Verwerter verlangen. Sowas von Geldgier hoch 3..
>
> Du mußt auch GEZ-Gebühren bezahlen, wenn Du nie öffentlich-
> rechtliche ansiehst. Oder nur Video's.

Ich muß? Sag das mal der GEZ <lol> (Wach Dich! ;-)

--------

> Es werden auch GEMA-Gebühren
> auf Fotokopierer erhoben, trotzdem ist das Kopieren von
> Büchern/Zeitschriften illegal.

Nein, wenn ich mir ein Buch ausleihe und das für mich selber
fotokopiere, ist das legal. Zumindest bin ich mir da sehr sicher.
Es verging eine lange Zeit, als ich das letzte mal in einem
Fotokopiershop war (ca. 1993), dort stand noch ein Schild an der
Wand, daß urheberrechtlich geschützte Publikationen auf irgendeine
Weise nicht kopiert werden dürften, aber an den genauen Wortlaut
erinnere ich mich nicht mehr, geschweige ob das überhaupt so noch
gilt.

Jedenfalls kann ich - sehen wir mal von Büchern ab (keine Ahnung),
von Videos, Fernsehprogramm und Musik, eine Kopie erstellen und diese
auch weitergeben, ohne dafür eine irgendwie geartete Gegenleistung
zu verlangen.

Ansich ist ja dieser Publikations-Einzugsverein (Name vergessen)
dasselbe, wie die GEMA, drum dürfte es genauso mit Büchern oder
Zeitungen usw. sein. Ich darf das nur nicht gewerblich oder sonst
wie zum SCHADEN der Urheber nutzen. Freibleibend (!) des privaten
Tausches, der durch Zahlungen an GEMA und wie der andere Verein heißt,
angedeckt sind. Weitergehenden "Schaden" (also durch Gewinnmitnahme
etc.) darf natürlich nicht entstehen, da dies nicht durch diese
Zahlungen abgedeckt ist, ganz richtig so.

Wie das jetzt aber im Detail bezüglich gedruckten Publikationen
ist, weiß ich nicht so genau. Interessiert mich äußerst wenig,
drum weiß ich es nicht so genau. Was aber die GEMA angeht, kann
ich meine Kopie von Musik und Film für Privatnutzung machen, wie
ich will.

Ginge bspw. mit Software (Programmen) natürlich nicht, da für
diesen Zweck keine allgemeine Zahlung geleistet wurde und die
Softwarehäuser sowas auch garnicht wollen ;-)


Davon ab, ist das alles eine relativ schwierige Thematik, die man
nicht mit privater Meinung "So" oder "So" sich hinbiegen kann,
wie man es gerne möchte, AUCH ICH NICHT. Aber ich habe meine
Ansichten, die zu 98% vom Gesetz gedeckt sind und alles weitere
sehe ich als äh.. "Versehen" an ;-) Nein, also das ist ein Thema,
da haben sich schon viele dran tot diskutiert. Letztlich entscheidet
der Gesetzgeber und nicht wir, auch wenn theoretisch "wir das Volk
sind", nur sind wir in der Entscheidungskraft das letzte Glied in
der Kette, der IN DEUTSCHLAND höchstens wählen darf. Und was besagter
Bürgervertreter und die von ihm Gewählten dann anrichten, hätten
wir (das Volk) ja nur mit zu entscheiden, wenn wir den Volksentscheid
in Deutschland bundesweit und allgemein für das meiste hätten, so
wie es Österreich und/oder Schweiz sehr erfolgreich machen.

Und für den Rest gibts das Bundesverfassungsgericht, aber damit haben
Urheberrechte irgendwie wenig zu tun ;)

--------

> Die Gebühren sind nur für die
> explizit erlaubten Ausnahmen (Lehr- u. Forschungszwecke,
> Absicherung des Rechts auf Informationsfreiheit) vorgesehen.

Vielleicht was Gedrucktes angeht, wobei da (IMHO) noch nicht das
letzte Wort gesprochen ist (ich denke da anders).

Nur bezogen auf Musik und Video ist es ganz klar, was ich darf.

--------

>> Mit letzteren Absätzen will ich sagen, daß die Musikindustrie
>> die Filesharingplattformen nicht bekämpfen kann, deren Logs
>> nicht existieren, deren Betreiber nicht auffindbar oder nicht
>> anklagbar sind (rein profilaktisch :) und vorallem, bei den
>> Datentransfers nicht schnüffeln kann, die privat zwischen Usern,
>> möglichst noch verschlüsselt stattfinden, welches nicht über ein
>> zentrales Netz geroutet wird.
>
> Die Welt ist nicht so groß. Und wenn die Suchanfragen über einen von
> gewissen Leuten gekaperten Server laufen, merkt erst mal niemand
> einen Unterschied.

Egal wer kapert, wenn der Suchende sich im rechtsfreien Raum oder
vom rechtsbehafteten Raum entfernt aufhält, dann ist er, genauso
wie die Bereitsteller/Gehilfen (Server etc.) nicht dran zu kriegen.

Davon ab muß man erstmal in Deutschland soweit sein, daß man jemanden
wirklich bestraft, für ein SUCHWORT, das man eingegeben hat.
Ist zwar ansich in einigen Ländern (wo auch immer, USA z.B.) verboten,
aber ich möchte mal echt DEN Prozeß sehen, wo jemand wegen der Eingabe
eines Wortes verurteilt wird. Ähem.. ;)

Aber fürs sharen von Songs wird es niemals so nen Aufwand geben,
Himmel, sollte es dazu kommen, wander ich gleich heute nach
Argentinien aus, statt wie geplant erst in 10-20 Jahren. Ne ne :)
(Dort darf man "Kopien" sogar verscherbeln, hehe, aber ganz im Ernst:
Das hat natürlich nichts mit meinem Auswanderungsgrund zu tun)

--------

>> (Ich glaube kaum, daß ich als Deutscher mit Recht auf privatem
>> Tausch von dies und jenem (Musik etc.), von Sony per IP ausfindig
>> gemacht und dann verklagt werde, das wird niemals kommen)
>
> Verlaß Dich nicht drauf.
> Außerdem kommt ja jetzt das neue "tolle" europäische Recht.

Ich weiß, aber die werden schon sehen, was die von ihren
Gesetzentwürfen haben werden...

Anderes (ähnliches) Thema: Wenn ich schon Softwarepatente höre,
wird mir kot*übel. (Sorry) Das Thema ist auch eins, wo ich bei
den Forderungen der Industrie und der gut verdienenden Artist
SO NEN HALS bekomme, jedesmal erneut. All die Artist/Autoren usw.,
die wenig Geld machen oder erst anfangen, sind aber für Tausch-
börsen usw. Und das nicht blind und naiv, sondern aus Überzeugung,
wie viele viele Statements, auch so mancher sehr bekannter Personen
gezeigt haben.

Ach, lassen wir das Thema, wir sind ja schon fast off topic :)

--------

>> Die Legalität dieser über Server gerouteten Daten setze ich
>> vorraus, aber bei Prinzipien wie Gnutella siehts doch schon anders
>> aus, nur fehlt mir da die Verschlüsselung und ist mir der Traffic
>> aus Prinzip (meine private Meinung) zu hoch.
>
> Mich würde mal interessieren, gegenüber wem eigentlich die
> Verschlüsselung wirken soll. Erst mal mußt Du Deine Suchanfrage
> immer für den anderen lesbar schicken und was nützt die
> verschlüsselte Datenübertragung, wenn Du überhaupt nicht weißt, wer
> auf der anderen Seite sitzt ?

Siehe oben, was ich zu Freenet schrieb. (Gibt noch anderes ähnliches,
aber habe mich nicht mehr drum gekümmert)

Jedenfalls geht es so, daß man rechtlich freien Spielraum hat,
selbst fürs Downloaden absolut illegaler Inhalte. Ist nur etwas
kompliziert, zumindest war es bezüglich Freenet noch so vor einem
Jahr. Wenn es den Client/das Netz noch gibt, wird das aber sicher
auf das Erträglichste verbessert worden sein.

Andere Clienten gäbs ja auch noch, aber wüßte jetzt nicht welchen.

--------

>>> Es zeigt sowieso von einem sehr getrübten Urteilsvermögen, eine
>>> technische Machbarkeit bei dem einen Protokoll mit der von Dir
>>> vermuteten Handlungsweise der Betreiber eines anderen Protokolls
>>> zu vergleichen, zumal Du ja selbst erkennst, daß technische
>>> Machbarkeit bei server-basierten Protokollen noch viel höher ist.
>>
>> Ähhm? ..muß mich sammeln, verstehe gerade nichts.. <mhmm>
>
> Die technische Machbarkeit: Filter im Gnutella-Client installieren
> Die vermutete Handlungsweise: "Napster-Serverbetreiber machen sowas
> nicht"

Achso, also:

1. Es geht nicht ums installieren von Filtern im Gnutella-Netz,
sondern darum, daß jeder Furz-User :) bereits alle nötigen
Informationen zugespielt bekommt. Eine Funktion zum loggen dieser
Daten, dies zu programmieren, kann man nicht als Implementation
eines Filters werten, denn der steckt so gesehen grundlegend
bereits drin. (Nur das Loggen und Auswerten wohl nicht :)

2. Server, das sind einzelne Verantwortliche, die Zugriff zu
ihren Daten haben und diese vielleicht auch noch dauernd löschen,
falls sie mal offen gelegt werden (Hack, Beschluß, etc.).

Die Gefahr, die durch solche Verantwortlichen ausgeht, ist ziemlich
gering, im Vergleich zu Gnutella, wo es praktisch jeder User in
der Hand hat, leicht übertrieben gesagt. (Stimmt so aber)

Zumal ja auch die OpenNaps sicher keine V-Mann-Server :) sind,
sondern sie aus dem Grund ins Leben gerufen wurden, weil Leute
meinen, sie hätten ein Recht auf den privaten Tausch von Daten,
was in vielen Fällen und in jenen Ländern ja auch der Fall ist.

Ein gewisser Teil, speziell im Bereich der Grauzone (User, Studenten
etc., die einen Server betreiben), speziell dieser Bereich beinhaltet
zudem vermehrt Server, wo nicht einmal genauer hingeschaut wird, was
da geshared wird. Wie sollte dies auch praktisch gehen, außer durch
Filter, aber von denen merkt man in nahezu allen Fällen nichts.
Solche Filter werden höchstens mal benutzt, wenn ein Server als
NON-MP3 deklariert wird, aber dann weniger um auf der rechtlich
sicheren Seite zu sein, sondern weil die Verantwortlichen andere
Gründe dafür haben. (Nutzung des Servers eben nicht für MP3s, weils
davon schon zu genüge gibt)



Die hier vertippten Kalorien muß ich jetzt erstmal durch einen Gang
zur Mikrowelle (oder 2 oder 3) aufholen. Prost Mahlzeit :)

Achja,
ein schönes Wochenende wünsche ich schonmal!


--
Henner

[ Dieser Beitrag wurde von Henner am 12.10.2001 editiert. ]

[ - Antworten - Zitieren - Direktlink - ]

12.10.2001, 11:31 Uhr

Holger
Posts: 8116
Nutzer
@Henner:
Ich bin ja (fast) Deiner Meinung, was die Interpretation der aktuellen Rechtslage angeht und vor allem auch, was man von den aktuellen Versuchen, sie zu ändern, halten muß.
Ich wollte lediglich darauf hinweisen, daß man sich nicht zu sehr darauf verlassen soll. Denn derzeit versuchen viel zu viele Leute, das aktuelle deutsche Recht günstiger für die Plattenfirmen auszulegen. Und letztendlich entscheidet nicht unsere Meinung, sondern die der Richter. Das aktuelle Recht ist zu alt und deshalb für die Situation des FileSharing nicht präzise genug und leider gehen alle bisher warnehmbaren Bestrebungen der Politiker dahin, es zu unseren Ungunsten zu "verbessern".

Was die Logging-Möglichkeiten angeht:
Zitat:
Man braucht doch nur einen
Clienten, der gezielt solche Anfragen beantwortet, die gewisses zum
Inhalt haben und wenn dann ein Downloadversuch stattfindet, wird der
Vorgang gelogged...

Ich kann keinen Unterschied zu einem Napster-User sehen, der download-Versuche loggt.

Zur Netz-Bandbreite:
Das Netzwerk ist nicht eine dicke Leitung, der man Bandbreite abzieht, sondern besteht aus tausenden, wenn nicht Millionen unabhängigen Teilnetzwerken. Wenn man durch die Präsens eines Servant Zugang zu einem anderen Teilnetzwerk erhält, in das dann ebenfalls Anfragen geleitet werden können, ist dies ein Vorteil, kein Nachteil.
Ein einzelner User leitet nur den Verkehr zu einer fest eingestellten Anzahl von anderen weiter, profitiert aber von der massiven Parallelverarbeitung hinter diesen. Man darf hier nicht die Denkweise von einem zentralen Server, der tatsächlich nur eine Leitung mit begrenzter Bandbreite besitzt, anwenden.

mfg

--

Good coders do not comment. What was hard to write should be hard to read too.

[ - Antworten - Zitieren - Direktlink - ]

13.10.2001, 11:58 Uhr

Henner
Posts: 204
Nutzer
@HAK:

Habe eben nochmal Dein letztes Posting nen weiteres Mal überlesen
und wenn Du meine Megaantwort auf Holger gelesen hast, sind
die übriggebliebenen Sachen zwischen uns damit ja auch "beantwortet".
Wenngleich Holger da wohl was falsch verstanden hat, also Augen auf,
Herbert (HAK) :)


@HOLGER:

Zitat:
Original von Holger:
@Henner:
Ich bin ja (fast) Deiner Meinung, was die Interpretation der aktuellen Rechtslage angeht und vor allem auch, was man von den aktuellen Versuchen, sie zu ändern, halten muß.

[...]

Das aktuelle Recht ist zu alt und deshalb für die Situation des FileSharing nicht präzise genug und leider gehen alle bisher warnehmbaren Bestrebungen der Politiker dahin, es zu unseren Ungunsten zu "verbessern".


Exakt. :(

Zitat:
Was die Logging-Möglichkeiten angeht:
Zitat:
Man braucht doch nur einen
Clienten, der gezielt solche Anfragen beantwortet, die gewisses zum
Inhalt haben und wenn dann ein Downloadversuch stattfindet, wird der
Vorgang gelogged...

Ich kann keinen Unterschied zu einem Napster-User sehen, der download-Versuche loggt.

Ne, da hast Du mich falsch verstanden. Bei der obigen "Masse" kann
das ja mal passieren.

Also schau Dir Napster (OpenNap) an, wenn dort jemand ein File
sucht und dann einen User (eine IP) heraussucht und downloaded.
Der anbietende kann dies loggen, klar. Wäre man aber Betreiber
des Netzwerkes (DJNap, OggVorbis etc.), könnte man alle Suchanfragen
loggen, die durch dieses Netz gehen. Aber das kann nunmal nur
der Betreiber (was er aus Szenegründen meist nicht tut) oder eben
eine Behörde, die sich selten mal zu sowas Zutritt verschafft :)

Die Menge der Logs durch das Abwarten von Downloadanfragen -
dieses Beispiel habe ich oben bereits beschrieben - dies wird
wie schon gesagt bereits z.B. von der Industrie gemacht. Das ist
aber ein recht ineffizientes Mittel, aber man kann damit zumindest
Verunsicherung schaffen.

Vergleiche dies mit folgender Situation:

Ein User (Industrie, Polizei, Privatmensch, ...) loggt sich mit
einem Original-Client oder einem minimal veränderten (loggen)
in das Gnutella-Netz und ist nun in der Lage MASSIVE DATENSAMMLUNG
zu betreiben. Ganz im Gegensatz zu der "Abwarterei" auf Downloads
auf die eigene Sammlung bei OpenNap. Bei Gnutella werden durch
den eigenen Clienten tausende von Anfragen mit IP geleitet, das
ist vergleichbar mit einem Scanprg. in einem x-beliebigen Netz-Node.


Die Einfachheit dieser Maßnahme - jetzt nur alleine bezogen auf
das Loggen, welches nur ein Nebenthema war - sprach ich damit an.

Also ein "Unterschied" besteht da auf jeden Fall ganz massiv,
zwischen OpenNap- und Gnutella-Loggereien.


---------------


Zitat:
Zur Netz-Bandbreite:
Das Netzwerk ist nicht eine dicke Leitung, der man Bandbreite abzieht, sondern besteht aus tausenden, wenn nicht Millionen unabhängigen Teilnetzwerken. Wenn man durch die Präsens eines Servant Zugang zu einem anderen Teilnetzwerk erhält, in das dann ebenfalls Anfragen geleitet werden können, ist dies ein Vorteil, kein Nachteil.


Nein, hier hast Du mich auch falsch verstanden.

Ich meine keinesfalls, daß es ein Nachteil ist, sich plump
in Gnutella (Netz) einzuloggen, sondern daß es ein Nachteil
für die Allgemeinheit im Gnutella-Netz ist, wenn man statt
einer etwas dauerhafteren Session, nur kurz drin ist, weil man
nur kurz suchen und per http downloaden will. Damit "irritiert"
man leistungsmäßig das Netz, oder Teilnetz oder was auch immer.
Genaue Argumente und Beschreibungen, siehe in meinem Posting zuvor.
(Auflistung: A, B, C ..)

Zitat:
Ein einzelner User leitet nur den Verkehr zu einer fest eingestellten Anzahl von anderen weiter,

...ja genau, von nichts anderem Rede ich ja auch. Aber wenn
dieser Transfer eben unterbrochen wird, durch Verlust dieser
Pakete (jeweils in einer Situation, beim Ausloggen), obwohl
das Netz (beachte TTL!) davon ausgeht, daß Du noch da bist,
dann hat das ein schädigendes Potenzial. Ansich ein sehr
geringes, aber multipliziere es mit der Anzahl der Logoffs
des einen Users und dann mit der Useranzahl, die HAK's In/Out
Variante ebenso nutzt und damit nur super kurz im Gnutella-Netz
ist und gleich wieder draußen.

Dann lieber gar nicht das GNetz betreten und die Anfragen auf
anderem Wege ins Gnutella Netz bringen. Man würde damit den
ganzen Traffic - der durch einen durch geleitet wird, in der
Absicht, da ist ein Servent für eine längere Zeit als Standbein
des Netzes zur Verfügung am stehen - den würde man garnicht
erst entstehen lassen, speziell die Massen an Pings und Pongs,
die zumindest vor nem Jahr noch einen Großteil des Traffics
darstellten! (lachhaft, solch ein Protokoll) Wie das heute aussieht,
weiß ich nicht, aber HAK meinte glaube ich, daß dies erst noch
modifiziert werden soll, noch immer nicht gemacht wurde.

(Wie gesagt, das vor ca. 1.5 Jahren verbreitete Gnutella-Prot. war
garnicht in einem verbreitungsfähigen Zustand, und Autor war auch
weg vom Fenster.. Wie war die Story nochmal? Naja, steht in meinen
Heise-Artikeln, les ich jetzt aber nicht nach :) Könnt ihr ja, siehe
letztes Posting von mir, am anfang)

Zitat:
profitiert aber von der massiven Parallelverarbeitung hinter diesen. Man darf hier nicht die Denkweise von einem zentralen Server, der tatsächlich nur eine Leitung mit begrenzter Bandbreite besitzt, anwenden.

Nein, ich gehe garnicht von zentralen Servern aus, sondern habe
jeweils das OpenNap-Prinzip und das von Gnutella nebeneinander
bzw. miteinander verglichen und mit Argumenten und Beispielen
meine Meinung geschildert.


--
Henner

[ Dieser Beitrag wurde von Henner am 13.10.2001 editiert. ]

[ - Antworten - Zitieren - Direktlink - ]


1 -2- [ - Beitrag schreiben - ]


amiga-news.de Forum > Amiga, AmigaOS 4 > Amster, WinMX und OpenNap - Um Vorurteile abzubauen [ - Suche - Neue Beiträge - Registrieren - Login - ]


.
Impressum | Datenschutzerklärung | Netiquette | Werbung | Kontakt
Copyright © 1998-2024 by amiga-news.de - alle Rechte vorbehalten.
.