Studie: KI beeinflusst Software-Entwicklung maßgeblich
Generative Künstliche Intelligenz unterstützt laut einer Umfrage des Capgemini Research Institute Software-Entwickler in zwei Jahren bei voraussichtlich mehr als 25 Prozent ihrer Arbeit in den…
Generative Künstliche Intelligenz unterstützt laut einer Umfrage des Capgemini Research Institute Software-Entwickler in zwei Jahren bei voraussichtlich mehr als 25 Prozent ihrer Arbeit in den…
In der digitalen Welt klaffen große Lücken beim Verbraucherschutz. Das zeigt der Verbraucherreport 2024 des Verbraucherzentrale Bundesverbands (vzbv).
Meta, das Unternehmen hinter Facebook und Instagram, will nach Auffassung der Datenschutzorganisation Noyb persönliche Posts, private Bilder oder Daten aus dem Online-Tracking für eine nicht…
Die Software Llamafile erleichtert die Ausführung von quelloffenen Large-Language-Modellen (LLM), wie man sie etwa von ChatGPT kennt.
Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat seine Publikation zu Chancen und Risiken großer KI-Sprachmodelle in deutscher und englischer Sprache aktualisiert.
Dass Künstliche Intelligenz zahlreiche Berufe in den kommenden Jahren verändern wird, erwarten laut einer Umfrage des Bitkom eine Mehrheit der Deutschen.
Mozilla Innovation Studio hat mit Formulaic ein neues Projekt gestartet.
Die Frage, ob KI am Arbeitsplatz sinnvoll ist spaltet laut einer Umfrage des Branchenverbandes Bitkom Deutschlands Beschäftigte.
Bei der derzeit in Paris stattfindenden KubeCon + CloudNativeCon Europe 2024 ist das Thema künstliche Intelligenz allgegenwärtig.
Das von Elon Musk gegründete Unternehmen xAI hat die Gewichte des Basismodells und die Netzwerkarchitektur seines KI-Modell Grok-1 unter einer Apache Lizenz veröffentlicht.
Bisher spielt der Einsatz von künstlicher Intelligenz (KI) im schulischen Bereich für die meisten Schüler kaum eine Rolle, Laut einer Umfrage besteht bei einer Mehrheit der jungen Menschen der…
Dank KI-“Magie” soll der Opus-Vocoder deutlich besser klingen als bisher. Außerdem sollen Paketverluste in Konferenzen besser kompensiert werden.
Die Fähigkeiten von Open-Source-KI-Modellen nähern sich immer mehr der Leistung der proprietären Konkurrenz an und übertreffen diese teils.
Die EU-Kommission hat für den internen Umgang mit künstlicher Intelligenz ein Regelwerk aufgestellt.
Laut IDC wird die Halbleiterindustrie im Jahr 2024 eine neue Wachstumswelle erleben.
Axel Springer und OpenAI haben eine globale Partnerschaft angekündigt.
Mit den „Guidelines for Secure AI System Development“ haben Sicherheitsbehörden einen Leitfaden zur Entwicklung sicherer KI-Systeme veröffentlicht.
Einer Umfrage des Softwarespezialisten Capterra zufolge ist für 36 Prozent der Befragten die Ersetzung von Arbeitsplätzen durch generative künstliche Intelligenz (KI) eine der größten ethischen Sorgen. Außerdem gaben 39 Prozent an, dass sie fürchten, ihren Job aufgrund von künstlicher Intelligenz in den nächsten 5 Jahren zu verlieren.
Als größte Risiken für Unternehmen sehen 48 Prozent der befragten Mitarbeiter jedoch die Cybersicherheit und den persönlichen/individuellen Datenschutz (46 Prozent). Die Befragten befürchten laut Capterra auch eine übermäßige Abhängigkeit von diesen Tools, die sie ihres eigenen Denkens berauben und zu unpersönlichen, glatten Inhalten führen könnte, die dem Image des Unternehmens schaden könnten.
56 Prozent der Befragten glauben, dass generative KI bereits heute 11 bis 30 Prozent ihrer Arbeit ersetzen könnte. 55 Prozent der Befragten finden, dass von KI-Software erstellte Inhalte besser sind als von Menschen erstellte Inhalte.
Capterra hatte im Juni 2023 eine Online-Umfrage unter 517 Angestellten aus Deutschland durchgeführt, die unter anderem generative KI mindestens ein paarmal pro Monat einsetzen.
Der Beitrag KI: Angestellte fürchten Jobverlust und mehr erschien zuerst auf Linux-Magazin.
Die Massenverfügbarkeit von generativer KI, wie ChatGPT von OpenAI und Google Bard, ist laut dem US-Marktforscher Gartner im zweiten Quartal 2023 zu einer der größten Sorgen von Risikoverantwortlichen in Unternehmen avanciert.
“Generative KI war das am zweithäufigsten genannte Risiko in unserer Umfrage im zweiten Quartal und tauchte zum ersten Mal in den Top 10 auf”, sagte Ran Xu, Director Research in der Gartner Risk & Audit Practice. Im Mai 2023 befragte Gartner 249 leitende Angestellte aus dem Bereich Unternehmensrisiken, um Führungskräften einen Überblick über 20 aufkommende Risiken zu geben.
An der Spitze der Risiken sehen die Befragten die Überlebensfähigkeit von Drittanbietern. Wenn sich die wirtschaftlichen Bedingungen auf breiter Front verschlechtern, könne dies zu einem unerwarteten Nachfragerückgang führen, der die Lebensfähigkeit der Anbieter oder ihre Fähigkeit, Waren und Dienstleistungen rechtzeitig zu liefern, beeinträchtigen könne, führt Gartner aus.
Bei den Risiken von KI hatte Gartner bereits die Bereiche geistiges Eigentum und mögliche Verletzungen durch KI hervorgehoben, ebenso wie Datenschutzverstöße durch ungebremste Veröffentlichungen von Daten durch KI. Cybersecurity gilt ebenfalls als Risikofaktor, weil Angreifer sich der KI bedienten, um Malware und sonstige Angriffswege ausarbeiten zu lassen.
Der Beitrag Gartner: Generative KI ist Risiko für Unternehmen erschien zuerst auf Linux-Magazin.
Datenanalyse und Künstliche Intelligenz sind die beiden Top-Technologien für deutsche Startups, hat der Digitalverband Bitkom ermittelt. 53 Prozent der Startups nutzen Big Data und Data Analytics, 49 Prozent setzen Künstliche Intelligenz ein.
Dieser Anteil dürfte weiter steigen, denn beide Technologien stehen vorne auf der Liste, deren Einführung Startups derzeit planen oder diskutieren: Bei KI sind es 39 Prozent, bei Big Data und Data Analytics sind es 31 Prozent. 203 Tech-Startups seien dazu im Auftrag des Digitalverbands Bitkom befragt worden, heißt es in der Mitteilung.
In der Gesamtwirtschaft nutzen dagegen nur 15 Prozent KI, weitere 25 Prozent planen es oder diskutieren darüber. Bei Datenanalysen sind es in der Gesamtwirtschaft 39 Prozent und 37 Prozent.
Etwa jedes vierte Startup (27 Prozent) setzt Technologien rund um das Internet of Things (IoT) ein, 29 Prozent planen es oder diskutieren darüber. 5G ist in 14 Prozent der Startups im Einsatz, 17 Prozent sind in der Planungs- und Diskussionsphase. Auf 3D-Druck setzen bereits 11 Prozent, 6 Prozent planen oder diskutieren die Nutzung. Virtual und Augmented Reality wird erst in 8 Prozent der Startups verwendet, aber hier ist der Unterschied zu denjenigen, die den Einsatz planen oder diskutieren mit 22 Prozent besonders hoch. Ein ähnliches Bild zeigt sich bei der Blockchain, die erst 5 Prozent einsetzen, die aber 22 Prozent diskutieren oder bereits den Einsatz planen. Und beim Metaverse stehen 3 Prozent aktuellen Nutzern immerhin 15 Prozent der Startups gegenüber, die den Metaverse-Einsatz planen oder diskutieren.
Der Beitrag Datenanalyse und Künstliche Intelligenz boomen bei Startups erschien zuerst auf Linux-Magazin.
Der US-Marktforscher Gartner hat sich in Personalabteilungen umgehört und erfahren, dass generative Künstliche Intelligenz dort noch keine große Rolle spielt. Nur 5 Prozent der Human-Ressource-Führungskräfte hätten angegeben, dass sie generative KI implementiert hätten.
Bei der Umfrage hat Gartner 105 HR-Führungskräften im Juni befragt. Davon antworteten 9 Prozent, dass sie derzeit generative KI-Pilotprojekte durchführen würden.
“Mehr als die Hälfte der von Gartner befragten HR-Führungskräfte gaben an, dass sie derzeit erforschen, wie sie generative KI einsetzen können, ohne dass sie bereits etwas implementiert haben”, sagte Dion Love, Vice President of Advisory in der HR Practice von Gartner. “Umgekehrt planten 14 Prozent der HR-Führungskräfte nicht, generative KI in naher Zukunft einzusetzen.”
Zu den bei der Umfrage am meisten priorisierten Anwendungsfälle zählen die HR-Verantwortlichen administrative Aufgaben, Richtlinien, Dokumentenerstellung und Recruiting, einschließlich Stellenbeschreibungen.
Personalisierte Karriereentwicklungspläne seien ein weiteres Feld, in dem KI zum Einsatz kommen könne, so Helen Poitevin, Distinguished Vice President und Analystin im Bereich HR bei Gartner. Mehr als ein Viertel der Befragten hatten sich entsprechend geäußert.
Der Beitrag Gartner: KI kommt in Personalabteilungen (noch) wenig zum Einsatz erschien zuerst auf Linux-Magazin.
OpenAI, das Unternehmen hinter der KI-Anwednung ChatGPT hat eine mit einer Million US-Dollar hinterlegte Cybersecurity-Initiative gestartet. Das Cybersecurity Grant Program soll zur Förderung und Quantifizierung von KI-gestützten Cybersicherheitsfähigkeiten dienen und den Diskurs über KI und Cybersicherheit ankurbeln.
Ziel sei es, mit den Verteidigern der Sicherheit auf der ganzen Welt zusammenzuarbeiten, um die Machtdynamik der Cybersicherheit durch die Anwendung von KI und die Koordination von Gleichgesinnten, die sich für die gemeinsame Sicherheit einsetzen, zu verändern, schreiben führende Mitarbeiter von OpenAI.
Das Programm ziele darauf ab, sicherzustellen, dass modernste KI-Fähigkeiten in erster Linie den Verteidigern von Cybersicherheit zugutekommen und nicht den Angreifern. Man arbeite auch an der Entwicklung von Methoden zur Quantifizierung der Cybersicherheitsfähigkeiten von KI-Modellen, um deren Wirksamkeit besser zu verstehen und zu verbessern.
Nicht zuletzt sei man bestrebt, die Diskussionen an der Schnittstelle zwischen KI und Cybersicherheit zu fördern und ein umfassendes und differenziertes Verständnis der Herausforderungen und Möglichkeiten in diesem Bereich zu schaffen, heißt es weiter.
OpenAI will die Anträge auf Finanzierung oder sonstige Unterstützung fortlaufend bewerten. Praktische Anwendungen von KI in der defensiven Cybersicherheit (Tools, Methoden, Prozesse) werde man stark bevorzugen. Man gewähre Zuschüsse in Höhe von 10.000 US-Dollar aus einem Fonds von 1 Million Dollar.
Im Blogpost sind mögliche Tätigkeitsfelder für Projekte für KI- und Sicherheitsexperten genannt, die sich an der Initiative beteiligen wollen. Vorschläge können dann auf einer eigenen Webseite eingereicht werden.
Der Beitrag OpenAI startet Cybersecurity-Programm erschien zuerst auf Linux-Magazin.
Mehrere hundert Experten aus Wissenschaft, Industrie und weiteren Bereichen haben in einem drastischen Statement vor den Gefahren der künstlichen Intelligenz (KI) gewarnt.
Das Risiko des Aussterbens der Menschheit durch KI zu minimieren sollte neben anderen solchen Risiken wie Pandemien und Atomkrieg globale Priorität bekommen, fordern die Unterzeichner des Statements. Darunter befinden sich die für KI zuständigen Manager von Google, Microsoft, OpenAI und weiteren namhaften Unternehmen, die mit KI befasst sind. Außerdem sind viele Wissenschaftler dabei und auch der KI-Forscher Geoffrey Hinton, der bei Google maßgeblich an der Entwicklung von KI beteiligt war, das Unternehmen aber verlassen hat. Hinton hat für seine Forschung an Deep neuronal Networks zusammen mit dem ebenfalls bei den Unterzeichnern vertretenen Yoshua Bengio den Turing Award erhalten. Das Statement ist auf der Website eines Center for AI-Safety veröffentlicht. Dieses Zentrum für KI-Sicherheit sei eine gemeinnützige Einrichtung, deren Aufgabe es sei, die von KI ausgehenden Risiken für die Gesellschaft zu verringern. Dies geschehe durch Forschung und Feldarbeit.
Das knappe Statement solle es KI-Experten, Journalisten, politischen Entscheidungsträger und der Öffentlichkeit ermöglichen, ohne Hindernisse über Bedenken und schwerwiegendste Risiken der fortgeschrittenen KI zu sprechen. Die Erklärung solle auch eine Diskussion in Gang bringen und die wachsende Zahl von Experten und Persönlichkeiten des öffentlichen Lebens bekannt machen, die die Risiken der KI ebenfalls ernst nehmen.
Warnungen von Personen, die eng mit KI verbunden sind, wie dem OpenAI-Chef Sam Altman, tauchen inzwischen öfter auf. Altman etwa fordert eine Regulierung von KI.
Der Beitrag Gefährlich wie ein Atomkrieg – Erneute Warnung vor KI-Risiken erschien zuerst auf Linux-Magazin.
Forscher der Ludwig-Maximilians-Universität München (LMU) haben in einer Studie nachgewiesen, dass schon die Erwartung, von einer KI unterstützt zu werden, die Risikobereitschaft der Probanden erhöht.
Die Forscher der LMU befassen sich mit “Human Augmentation Technologies”, also Technologien, die menschliche Fähigkeiten verbessern. Dazu zählen die Experten etwa Exoskelette und Augmented Reality-Brillen.
Eine Studie am Lehrstuhl für Human Centered Ubiquitous Media der LMU hat nun gezeigt, dass Nutzer hohe Erwartungen an den Effekt dieser Technologien haben, teilt die Universität mit. Sobald sie der Ansicht seien, eine KI würde ihre kognitiven Fähigkeiten verbessern, erhöhe sich ihre Risikobereitschaft. Und das unabhängig davon, ob die KI sie tatsächlich unterstütze.
“Der Hype um KI-Anwendungen wirkt sich auf die Erwartungen von Nutzerinnen und Nutzer aus. Das kann zu risikoreicherem Verhalten führen”, sagt Steeven Villa, Doktorand am Lehrstuhl für Human Centered Ubiquitous Media und Erstautor der Studie.
In der Studie sei den Probanden mitgeteilt, dass sie bei einem virtuellen Kartenspiel von einer KI-Anwendung unterstützt würden, die ihre kognitiven Fähigkeiten erhöhe. Tatsächlich gab es diese Unterstützung nicht. Dennoch zeigten die Teilnehmenden eine höhere Risikobereitschaft, sobald sie glaubten, von der KI zu profitieren.
Die Studie bestätige damit zudem den möglichen Placebo-Effekt bei technologischen Anwendungen in ähnlicher Form, wie dieser bei Medikamenten nachweisbar sei. “Wenn Menschen zunehmend mit intelligenten Systemen zusammenarbeiten, ist es wichtig einen möglichen Placebo-Effekt zu verstehen, um wirklich Systeme bauen zu können, die eine echte Unterstützung bieten”, sagt Albrecht Schmidt, Informatikprofessor an der LMU. Die Forscher empfehlen, vor der Verbreitung neuer KI-Anwendungen deren tatsächlichen Nutzen zu überprüfen und dann mögliche Placebo-Effekte zu berücksichtigen. Zudem raten sie, Nutzer sowie deren Erwartungenshaltungen stärker in den Entwicklungsprozess miteinzubeziehen.
Der Beitrag Studie: Einsatz von KI erhöht Risikobereitschaft erschien zuerst auf Linux-Magazin.
Sam Altman, CEO von OpenAI, dem Unternehmen hinter ChatGPT und die Mitgründer Greg Brockman und Ilya Sutskever treten für eine Kontrolle und Steuerung der Entwicklungen von künstlicher Intelligenz ein.
Die Superintelligenz, die KI darstellt, werde in Bezug auf die potenziellen Vor- als auch die Nachteile mächtiger sein als andere Technologien, mit denen die Menschheit in der Vergangenheit zu kämpfen hatte, schreiben die drei Informatiker in ihrem Beitrag. Diese Technologie könne eine dramatisch wohlhabendere Zukunft ermöglichen, es gelte aber die Risiken beherrschen, um dorthin zu gelangen. Das Risiko beschreiben die Autoren des Beitrags drastisch als existenziell. Und deshalb könne man nicht nur reaktiv sein. KI vergleichen sie mit der Kernenergie, die ein häufig verwendetes historisches Beispiel für eine Technologie mit dieser Eigenschaft sei. Auch die synthetische Biologie sei ein Beispiel.
In ihrem Blogbeitrag sehen die drei OpenAI-Gründer drei Pfeiler, wie sich KI zum Wohle der Menschheit nutzen lässt, ohne die Risiken zu übersehen.
Erstens brauche es ein gewisses Maß an Koordinierung zwischen den führenden Entwicklungsanstrengungen, um sicherzustellen, dass die Entwicklung der Superintelligenz in einer Weise erfolge, die die Aufrechterhaltung der Sicherheit als auch eine reibungslose Integration dieser Systeme in die Gesellschaft ermöglichen würden. Es könnten dafür etwa große Regierungen auf der ganzen Welt ein Projekt ins Leben rufen, an dem sich viele aktuelle Bemühungen beteiligen. Oder man könnten sich darauf einigen, dass die Wachstumsrate der KI-Fähigkeiten auf eine bestimmte Rate pro Jahr begrenzt ist.
Zweitens werden es wohl eine Art IAEO (Internationale Atomenergie-Organisation) für die Superintelligenz brauchen. Alles was etwa eine bestimmte Fähigkeitsschwelle überschreite, müssen einer internationalen Behörde unterstellt werden, die Systeme inspizieren, Audits verlangen, die Einhaltung von Sicherheitsstandards prüfen könne, fordern das Trio. Diese Organisation müsse dann auch Beschränkungen für den Einsatzgrad und das Sicherheitsniveau auferlegen können. Die Nachverfolgung des Rechen- und Energieverbrauchs könnte dafür einen wichtigen Beitrag leisten. In einem ersten Schritt könnten sich die Unternehmen freiwillig verpflichten, mit der Umsetzung von Elementen dessen zu beginnen, was eine solche Agentur eines Tages verlangen könnte, und in einem zweiten Schritt könnten die einzelnen Länder dies umsetzen, heißt es im Beitrag.
Drittens brauche es technischen Möglichkeiten, um KI sicher zu machen. Dies sei eine offene Forschungsfrage, mit der sich OpenAI und andere intensiv befassen würden.
Die Steuerung der leistungsfähigsten Systeme sowie die Entscheidungen über ihren Einsatz müssen einer starken öffentlichen Kontrolle unterliegen, glauben die Autoren. Angesichts der Risiken und Schwierigkeiten lohne es sich auch, darüber nachzudenken, warum wir diese Technologie überhaupt entwickeln. Bei OpenAI gebe es zwei Gründe dafür. Man glaube, dass sie zu einer viel besseren Welt führen wird, als wir sie uns heute vorstellen können. Die Welt stehe vor vielen Problemen, zu deren Lösung man Hilfe brauchen werden; diese Technologie könne unsere Gesellschaften verbessern. Das Wirtschaftswachstum und die Steigerung der Lebensqualität werden erstaunlich sein, heißt es im Beitrag.
Zweitens glauben man, dass es riskant und schwierig wäre, die Entwicklung der Superintelligenz zu stoppen. Da die Vorteile so enorm seien, die Kosten für ihren Aufbau jedes Jahr sinken würden, die Zahl der Akteure, die sie aufbauen, rapide zunehme und sie bereits Teil des technologischen Weges ist, auf dem wir uns befinden, würde ihr Stoppen so etwas wie ein globales Überwachungssystem erfordern, und selbst das sei nicht garantiert.
Der Beitrag OpenAI plädiert für Steuerung der Superintelligenz erschien zuerst auf Linux-Magazin.